Siteground miglior hosting WordPress ? Il caso reale di un nostro cliente che ha scelto le performance.

E’ facile e frequente imbattersi in moltissime recensioni che indicano Siteground come miglior hosting wordpress. Questo è derivato sicuramente dall’ottima fama che un big del settore è riuscito a crearsi nell’ambiente di sviluppatori WordPress e dell’effettiva bontà delle loro soluzioni hosting.

Conosciamo personalmente tanti loro clienti con cui abitualmente svolgiamo servizi di consulenza e di sviluppo, e occasionalmente forniamo loro servizi di ottimizzazione spinta decidendo di portarli sui nostri sistemi e fornendo dunque un servizio più performante.

Vogliamo portare l’esempio di un nostro nuovo cliente che avendo sottoscritto un piano hosting di tipo GoGeek con Siteground al costo di circa 25€/mese si trova ad avere il sito disabilitato per la grossa affluenza di visitatori che ha reso il server sovraccarico.

Questo è quello che viene comunicato dall’assistenza che intanto ha provveduto a mettere offline il sito e dunque creato un danno in termini di mancati introiti al cliente :

siteground-hosting
Siamo pertanto stati contattati dal cliente che avendo avuto notizia da un collega delle ottimizzazioni su siti di blogging WordPress based, ha voluto testare con mano i nostri servizi e l’ottimizzazione di performance che siamo riusciti a dare utilizzando i tool più in voga nel settore hosting, spaziando per PHP-FPM, Zend OpCache, Nginx, Memcached e Varnish con un sapiente uso e tuning di svariati plugin WP per aumentare il punteggio Pagespeed e YSlow, nonchè un reverse proxy a livello CDN tramite Incapsula che ci ha permesso di risparmiare banda e diminuire i tempi di caricamento di contenuti statici come le immagini.

Attualmente su www.techzoom.it (il sito migrato sui nostri sistemi)riusciamo a reggere oltre il quadruplo delle richieste che hanno creato problemi a Siteground, a costi del tutto comparabili se consideriamo un’assistenza managed e una supervisione costante che danno sicuramente un valore aggiunto al business del cliente.

Abbiamo voluto discutere e documentare questo caso per portare a conoscenza della nostra realtà di hosting alternativa a Siteground, GoDaddy o Aruba ad esempio, realtà sicuramente più piccola e moderata ma con un know how tale da essere più che adeguato alle aspettative dei clienti più esigenti e delle situazioni più dispendiose.

Cookie Law : la nuova legge europea sui Cookie. Come essere in regola con il tuo sito web.

Entro il 3 giugno 2015, i gestori di siti internet comunitari devono attuare le disposizioni della legge, detta Cookie Law, approvata con decreto legislativo 69/2012 e 70/2012. Sanzioni amministrative che vanno da 6.000 a 120.000€ (nei casi più gravi) per chi non rispetta le indicazioni europee.

eu-cookie-law

Prima di entrare nel merito della Cookie Law (o Cookie Policy) vediamo la breve storia dei cookie

Cookies? Cosa sono e a cosa servono

Nel linguaggio informatico la parola cookie non evoca biscotti da forno ma indica tutti quei piccoli file attraverso cui i siti internet riconoscono gli utenti o memorizzano informazioni relative alla ricerca sul web. In altri termini, i cookie sono strumenti validi nella raccolta di informazioni, durante la navigazione, delle persone per proporre azioni di marketing diretto: per esempio visualizzando pubblicità personalizzate in base a percorsi di navigazione.

La normativa Cookie Law in Europa ed in Italia

Fino a qualche tempo fa i cookie venivano usati inconsapevolmente dalla quasi totalità dei navigatori ma dal 2009 tutto è cambiato: l’Unione Europea, attraverso la direttiva numero 136 (testo completo della direttiva 2009/136/CE), ha imposto l’ottenimento del consenso preventivo dell’interessato nel caso di raccolta di informazioni sensibili attraverso i cookie.

In Italia la direttiva è stata recepita dal 2012: modificando il Codice in materia di protezione dei dati personali il Garante della Privacy si è assunto il compito di vigilare e di definire l’acquisizione del consenso.

Il 4 giugno 2014 il Garante ha emanato un provvedimento generale introducendo le modalità per tradurre online la Cookie Law fornendo indicazioni su come raccogliere i consensi in modo da rispettare la legge.

Cosa cambia la Cookie Law in sintesi?

La legge indica due tipologie di cookie:

  • i cookie di profilazione utilizzati nella profilazione degli utenti per fini pubblicitari
  • i cookie tecnici a tutela della navigazione e della fruizione del sito web.

L’obbligo del consenso esplicito riguarda solo i cookie con finalità di profilazione, come avviene ad esempio nei portali di shopping online o se utilizzi strumenti come Google AdSense o Google Analytics.
Nel momento in cui si accede ad un sito che fa uso di cookie (sia in home page o in un’altra pagina), deve comparire, in primo piano, un banner di idonee dimensioni dove si precisa:

  • l’uso di cookie di profilazione per inviare messaggi pubblicitari mirati, se presenti
  • l’uso di cookie di “terze parti”, ossia di cookie che raccolgono dati che verranno utilizzati da un sito diverso da quello che si sta visitando
  • un link all’approfondimento dell’informativa, con indicazioni sull’uso dei cookie inviati dal sito, che precisi la possibilità di negare il consenso alla loro installazione, direttamente o collegandosi ai vari siti, nel caso dei cookie di “terze parti”
  • evidenziare che, proseguendo nella navigazione, si presta il consenso all’uso dei cookie (ad esempio quanto si accede ad un’altra area del sito o selezionando un’immagine o un link).

Sanzioni

Entro il 3 giungo 2015 i gestori di siti web dovranno obbligatoriamente applicare il provvedimento. Oltre a tale data in caso di:

  • omessa informativa o di informativa inidonea è prevista una sanzione amministrativa (art. 161 del Codice) del pagamento di una somma compresa fra i 6.000 e 36.000€.
  • installazione di cookie sui terminali degli utenti in assenza del preventivo consenso comporta la sanzione (art. 162, comma 2-bis, del Codice) del pagamento di una somma da 10.000 a 120.000€.
  • omessa o incompleta notificazione al Garante viene applicata una sanzione (art. 163 del Codice) con il pagamento di una somma da 20.000 a 120.000€.

Mettersi in regola con la legge sui cookie

Per mettersi in regola con la legge europea sui cookie puoi disporre di alcuni plugin online da installare autonomamente. Se non hai competenze tecniche però, e preferisci affidarti a dei professionisti onde evitare problemi ed incappare in sanzioni, puoi contattarci per un preventivo e lasciare fare a noi.

Offriamo il servizio di analisi, installazione popup, e relativa certificazione ad un prezzo base di 49€ , previa verifica fattibilità (del tutto gratuita).

Possiamo dire che l’aspetto rilevante del nostro lavoro è quello di rendere il sito (o in questo caso i siti) conforme all’attuale legge che andrà in vigore il .

C’è una precisa disposizione in merito che ha lasciato erroneamente interpretazioni piuttosto fantasiose.

Di base :

  • Analizziamo il sito
  • Implementiamo il banner informativo
  • Blocchiamo Cookie di profilazione (nel 99% Google Analytics)
  • Rediamo il testo inerente alla privacy e alla gestione cookie.
  • Rilasciamo una certificazione PDF con tutti i dettagli tecnici a tutela dell’operato e come linea guida da esibire ad eventuali controlli.

Contattaci pure al 3409854556 o inviaci una mail a info@dreamsnet.it per iniziare subito a mettere in regola il tuo sito, avendo cura di inserire il sito da mettere in regola.

Domande frequenti

Quali sono i siti soggetti al regolamento della Cookie Law?

Tutti i siti la cui organizzazione/persona cade sotto la giurisdizione europea (indipendentemente da dove è situato il proprio server) e che utilizzano cookies di terze parti (social widgets come facebook o twitter, analytics, disqus ecc ecc) o che utilizzano propri cookies per tracking, analisi o affiliati senza una diretta accettazione.

Sul mio sito utilizzo strumenti per analisi delle visite (p.e. Google Analytics), quindi devo mostrare l’avviso?

Sì! Tutti i servizi esterni devono essere accettati dal visitatore, secondo le indicazioni delle Cookie Law. Ecco una piccola lista:

  • Google Analytics
  • Google Adsense
  • Google Plus
  • Facebook widgets (il semplice bottone mi piace)
  • Twitter widgets (il semplice bottone follow)
  • Sistema disqus
  • Youtube
  • Vimeo
  • Qualsiasi altro servizio che utilizza cookie e potrebbe tracciare informazioni sull’utente.

Sul mio sito utilizzo i vari pulsanti per la condivisione (Google+, Facebook, Twitter, ecc…), devo prevedere l’avviso?

Certo! Il sito deve prevedere l’informazione e l’accettazione dei cookies esterni secondo quando specificato nella Cookie Law.

Sono una Pubblica Amministrazione, anche io devo ottemperare alla Cookie Law?

La Cookie Law non fa differenza tra le categorie, tutti i soggetti sono interessati; quindi anche le Pubbliche Amministrazioni sono tenute alla modifica dei loro siti.

Come mi metto in regola sulla cookie law ?

Per mettersi in regola con la legge europea sui cookie puoi disporre di alcuni plugin online da installare autonomamente. Se non hai competenze tecniche però, e preferisci affidarti a dei professionisti onde evitare problemi ed incappare in sanzioni, puoi contattarci per un preventivo e lasciare fare a noi.

Offriamo il servizio di analisi, installazione popup, e relativa certificazione ad un prezzo base di 49€ , previa verifica fattibilità (del tutto gratuita).

Contattaci pure al 3409854556 o inviaci una mail a info@dreamsnet.it per conoscere con esattezza la miglior offerta a te riservata, avendo cura di inserire il sito da mettere in regola.

I principali portali di calcio italiani, scelgono DREAMSNET.IT per l’hosting e la consulenza sistemistica.

romanews-lazionews-bianconerinews

Come per molti altri siti ad alto traffico che abbiamo avuto modo di discutere negli scorsi articoli del nostro blog, questa volta abbiamo avuto modo di ricevere la piena fiducia da parte della società editrice MALU WEB s.r.l. di Roma che ci ha affidato il delicato compito di progettare l’infrastruttura di hosting per i loro portali calcistici ad alto traffico.

MALU WEB S.r.l. infatti è una società editrice che incentra il loro business su progetti editoriali ben targetizzati, curando portali web inerenti ad alcuni club calcistici italiani.

Romanews.eu, lazionews.eu, bianconerinews.eu, tra le testate giornalistiche in rilevanza, con picchi di traffico elevati in concomitanza di comunicati stampa dei vari club e degli impegni sportivi come derby e le varie gare calcistiche.

Gestire picchi di traffico elevati dovuti ad altrettanti picchi di visitatori, significa eseguire una progettazione ad-hoc sia per ciò che concerne la parte hardware sia per ciò che concerne la parte software.

Collocare i dati su datacenter europei come OVH in questo caso ha significato trovare una risposta estremamente intelligente alla solita domanda “Costi o prestazioni ?“.

In questo caso non abbiamo dovuto sacrificare nulla, dimensionando correttamente l’hardware alla base a prezzi estremamente competitivi su tutto il panorama europeo.

A livello software, abbiamo installato e configurato uno stack basato sulle più moderne tecnologie idonee a far girare correttamente blog WordPress.

A partire dallo strato DBMS, basato su Percona Server (Drop in replacement del più popolare MySQL Server di Oracle), PHP-FPM con Zend Opcache come process manager dell’interprete PHP, NGINX come Webserver, Memcached per gestire il caching di Worpress direttamente in RAM grazie al plugin W3 Total Cache, Varnish come cacher in reverse proxy, ed infine il tutto proxato con Incapsula (www.incapsula.com) al fine di gestire in modo trasparente un cacher e un sistema di distribuzione contenuti (ovvero CDN, Content Delivery Network).

Il tutto è stato implementato nei tempi e nelle modalità più idonee al fine di ridurre eventuali disservizi, ovvero in orario notturno tra giovedì notte e venerdì notte. La messa in produzione è stata monitorata in modo continuativo anche in tutta la giornata di sabato, al fine di visionare il carico del server e il corretto funzionamento di tutte le componenti.

Fieri come sempre di fare ciò che sappiamo fare bene e di fornire in questo caso oltre 14 milioni di visitatori al mese ai principali portali calcistici italiani, e di dimezzare i costi di infrastruttura all’azienda committente, che migrando dal vecchio fornitore, oltre ad aver migliorato sensibilmente la qualità di navigazione e la velocità di caricamento delle pagine Web, ha anche ridotto di 2 terzi i costi di noleggio e gestione dell’infrastruttura.

Qualora cerchiate soluzioni di hosting avanzato ed ottimizzazioni server avanzate, contattateci pure, sapremo trovare una soluzione ideale alle vostre esigenze, ai prezzi più interessanti sul mercato con prestazioni alla top di gamma.

Come migliorare le perfomance di un blog WordPress, grazie ad una consulenza sistemistica e ad uno stack Percona Server, PHP-FPM, NGINX, Redis, Memcache e Varnish.

In relazione all’articolo precedente sull’ottimizzazione performance di un server adibito all’hosting di un blog WordPress ad alto traffico come curiosone.tv (potete leggerlo qui), è stato deciso di fare un video dimostrativo al fine fare una comparazione prima / dopo, l’ottimizzazione, utilizzando i dati provenienti da htop, netstat, ed utilizzando il tool Apache Benchmark per effettuare uno stress testing su componenti software (plugin), alla base di un carico a livello di CPU ingestibile, dando un’esperienza di navigazione lenta e snervante, nonchè frequenti crash, e un backend letteralmente ingestibile se non in tempi biblici.

Il tutto è stato realizzato con software open source e “ricette sperimentate sul campo già altre volte”, tra i quali Percona Server, PHP-FPM, Zend Opcache, NGINX, REDIS, Memcache, Varnish, e l’ausilio di una CDN come Incapsula (Già più volte menzionata in questo blog).

La dimostrazione pratica di quanto un’assistenza sistemistica managed a livello server, possa fare la vera differenza in termini di qualità del servizio offerto, garantendo un notevole risparmio sui costi dell’infrastruttura, e garantendo un velocissimo ritorno dell’investimento iniziale, grazie alla qualità della navigazione che l’utente dispone e dei relativi modelli di business basati su interazioni con il visitatore come Advertising e campagne Pay per click di circuiti come Google Adsense.

Investire una cifra modesta per fare l’analisi della situazione iniziare ed effettuare un tuning ad-hoc è il primo passo da seguire, consultandosi con sistemisti Linux di comprovata esperienza.

Gestire un rapporto continuativo di supervisione e gestione server managed è il passo successivo per continuare a garantirsi i benefici ottenuti con una configurazione ad-hoc che deve comunque essere monitorata e supervisionata.

 

Ottenere l’auth code e lo sblocco dominio da Aruba, senza inviare documentazione cartacea. Richiesta Codice AuthInfo.

Una delle problematiche comuni in cui ci si imbatte spesso con un fornitore di Hosting come Aruba, è quello di riuscire a recuperare l’auth-code e sbloccare il dominio.
Pur accedendo con le credenziali nell’area riservata ai clienti Aruba infatti, per ottenere l’auth code o AuthInfo, ci si ritrova davanti ad una schermata che presenta una serie di moduli da scaricare, stampare, compilare, a cui allegare un documento d’identità e addirittura una visura camerale se il dominio è attribuito ad un soggetto diverso da persona fisica.

aruba-trasferire-dominio-auth-code

Premesso poi che Aruba evaderà la richiesta a mano, con il diritto di verificare l’identità tramite contatto telefonico, viene facile pensare che questa prassi sia inutile da un punto di vista pratico ma mera burocrazia.

Ben pochi invece sanno che è possibile ottenere in facili e semplici passi e sopratutto IMMEDIATAMENTE il codice di autenticazione, conosciuto anche come codice di trasferimento, auth code, o meglio AuthInfo utilizzando il pannello di controllo del dominio che aruba mette a disposizione.

Andando infatti col browser su https://admin.aruba.it/PannelloAdmin/login.aspx e inserendo i dati in proprio possesso, è possibile cliccare sul bottone “Richiesta Codice AuthInfo” (cerchiato in rosso nell’ultima immagine) pee ottenere nell’immediato lo sblocco del dominio, nonchè l’auth-code direttamente per posta all’indirizzo email del contatto ADMIN-C visibile nel whois del dominio in questione.

auth-code-dominio-aruba

 

recupero-auth-code-codice-trasferimento-sblocco-dominio

 

Da qui in poi potrete gestire questo codice come meglio credete per trasferire il vostro dominio presso un altro fornitore di hosting o un’altra valida alternativa ad Aruba.

Servire oltre 5000 visitatori al secondo ad un blog WordPress, tramite ottimizzazione server. Un esempio reale con Redis, NGINX, Varnish, Memcached, CDN.

Cosa succede quando un sito di Quiz diventa popolare ? Succede che bisogna gestire oltre 5000 visitatori al secondo per un totale di 50 mila connessioni al secondo. Come gestire soluzioni del genere ad alto traffico ? Alla base di tutto : WordPress con caching misto su memcached e Redis Server, PHP-FPM, Nginx con frontend Varnish dietro Cloudflare e Incapsula.

speed-up-wordpress-siteQuesto articolo ha lo scopo di illustrare le potenzialità di un tuning ad-hoc di un server Linux al fine di servire oltre 5000 visitatori al secondo ad un blog WordPress.

Tutto quello che leggerete di seguito è frutto di un caso reale a cui abbiamo lavorato per garantire l’erogazione del servizio di hosting in modo ottimale, nel frattempo che i programmatori riscrivessero l’applicazione in un modo più performante, ovvero senza l’utilizzo di WordPress che per l’utilizzo e la tipologia di sito è sicuramente una scelta criticabile e sostituibile con del puro HTML e Javascript.

Alla fine dell’articolo un video,  per chiunque preferisca vedere dal vivo alcuni passaggi importanti che sono solamente citati nell’articolo.

Introduzione alla vicenda

Il tutto nasce dalla richiesta di aiuto dello sviluppatore/sistemista di Quizdee.com noto sito di quiz online che mi riassume con un’immagine la situazione che avevano raggiunto : a 800 utenti al secondo il server si bloccava allocando tutta la potenza di calcolo delle 4 CPU istanziate su Amazon EC2.

server-load-carico-linuxSin da subito veder girare httpd , sinonimo di Apache fa capire che c’è molto da fare. Un successivo sguardo alla configurazione di MySQL, ci mostra eloquentemente che non è stato fatto nulla di specifico nell’ottimizzazione ma che tutto gira come fornito dall’installazione.

Guardando l’applicativo non si può far altro che criticare la scelta “veloce” (ma funzionale) di usare WordPress per lo sviluppo di un sito Web che avrebbe potuto essere sviluppato su DBMS di tipo NOSQL come MongoDB o Redis, o meglio ancora eliminando completamente il lato server side, escludendo dunque PHP e MySQL per un corretto funzionamento.

Ovviamente riscrivere tutto da 0, avrebbe comportato tempistiche non gestibili in qualche giorno, per cui nel frattempo il compito era “tamponare” con soluzioni di emergenza in grado di reggere almeno 10 volte tanto gli 800 utenti iniziali, limite in cui il server linux iniziava letteralmente a morire sotto i click dei visitatori.

Cambio Hoster e cambio Server Dedicato.

Date le grosse risorse in termini di CPU abbiamo deciso di passare da un 4 core di Amazon EC2 a un server dedicato da Hetzner in Germania.

La scelta è ricaduta su un server di fascia alta :

Intel® Xeon® E5-1650 v2
Hexacore Ivy Bridge-E
6 core fisici e 12 logici.
128 GB di RAM ECC
2 Hard Disk SATA SSD a stato solido.
Connettività 1 Gbit/s
al modico costo di 139€ al mese IVA Inclusa.

Installazione e configurazione sistema operativo Linux CentOS 6

Abbiamo scelto di installare la famosa distribuzione CentOS, già precedentemente installata anche su Amazon EC2, e di procedere alla configurazione base, eliminando tutti i servizi non necessari e installando tutti i software voluti per una successiva configurazione. Abbiamo installato dunque :

  • MySQL Server
    DBMS relazionale, necessario al funzionamento di WordPress
  • NGINX
    nginx [engine x] e’ un server HTTP e reverse proxy, nonche’ un server mail proxy, scritto da Igor Sysoev. Per molto tempo e’ stato usato principalmente per alcuni siti russi ad alto carico, ad esempio YandexMail.RuVKontakte e Rambler; in base ai dati di Netcraft, nell’ottobre 2013 nginx e’ il server HTTP o reverse proxy del 15.08% dei siti a maggiore carico.
  • PHP-FPM in versione 5.5
    è un frontend FastCGI per PHP che migliora le funzionalità di php-cgi.
  • Zend OpCache
    l’integrazione di Zend Optimizer+quale opcode cache; si tratta di un componente concepito per incrementare il livello di prestazioni nell’esecuzione delle applicazioni PHP senza alterarne i comportamenti.
  • Memcached
    è un sistema cache in RAM a oggetti distribuiti per migliorare la velocità .
    Memcached diminuisce il tempo di caricamento delle pagine dei siti web dinamici basati su database mettendo in cache i dati richiesti e riducendo il carico sui server database
  • Redis
    un key-value store open source residente in memoria con persistenza facoltativa.
  • Varnish
    un acceleratore HTTP potente e open source, che è in grado di servire contenuti in cache in modo veloce

Per ogni software abbiamo proceduto ad effettuare un tuning ed una configurazione affichè tutto si integrasse perfettamente.

Obiettivi da raggiungere prefissati nella configurazione

Tra gli obiettivi da raggiungere che ci siamo prefissati, quello di minimizzare lo spawning di processi php-fpm e query MySQL. Sono loro a divorare i 12 processori logici, saturando tutte le risorse e accodando sempre più richieste fino ad una situazione di stallo.

Per far questo (non potendo nell’immediato riscrivere il tutto in un semplice HTML statico), dobbiamo cachare nel modo più corretto e veloce possibile quanto più si riesca a cachare in modo di restituire l’output html dalla RAM, piuttosto che generarne nuovamente da PHP e MySQL.

Oltretutto bisogna anche limitare il traffico dati delle immagini, che seppur poche in termini di quantità e di pesantezza riescono a generare circa 250 gigabyte al giorno di traffico.

Per i problemi di traffico abbiamo deciso di adottare 2 CDN (Content delivery network) che tramite una configurazione di reverse proxy possano cachare le nostre immagini sui loro server e fornirle al nostro posto risparmiandoci prezioso traffico dati.

La prima CloudFlare, si occupa di cachare i contenuti del sito www.quizdee.com, la seconda Incapsula, si occupa di cachare le immagini del dominio di terzo livello creato appositamente img.quizdee.com

La struttura finale ideale è simile alla seguente:

img_imperva_cloud_waf_diagram

 Cenni sulla configurazione dei vari componenti

In breve abbiamo configurato tutti i vari software precedentemente elencati per fornire un caching rapido e veloce dei contenuti. MySQL è stato impostato per cachare qualora richiesto moltissime query fino ad oltre 32 gigabyte di RAM.Valore sicuramente ben più elevato delle centinaia di megabyte in effettivo uso.

WordPress è stato configurato con il plugin W3 Total Cache (W3TC) al fine di cachare contenuti statici direttamente su memcached. Inoltre è stato abbinato anche a Redis, al fine di cachare post direttamente in RAM e diminuire i tempi di risposta fino a 100 volte tanto.

PHP-FPM è stato settato e configurato per gestire un massimo di 1000 connessioni contemporanee, numero in cui al di sopra saremmo andati incontro a sensibili problemi di carico.

NGINX è stato configurato ad hoc ottimizzandone alcuni parametri sui timeout e sul numero di thread gestibili.

Varnish è stato configurato come reverse Proxy su NGINX che a sua volta gestisce due virtual host www.quizdee.com e img.quizdee.com

 

Installazione e configurazione delle due CDN. Cloudflare ed Incapsula

Creati account gratuiti sulle due CDN, abbiamo impostato i DNS del dominio come consigliato dal pannello di controllo delle due CDN.

Cloudflare fornisce i contenuti di www.quizdee.com e Incapsula quelle di img.quizdee.com. Dopo alcuni minuti le richieste diminuivano sensibilmente e anche il load.

Questo è stato un passaggio se non vitale, comunque significativo considerando che in 4 giorni ci ha risparmiato di solo traffico immagini ben 740 GB, con oltre 27 milioni di hits, con picchi di banda di oltre 150 Mbit/s.

banda-risparmiata-incapsula
Risultati Ottenuti

I Risultati ottenuti sono stati quelli di riuscire ad erogare un servizio ad oltre 5000 utenti al secondo, avendo toccato anche dei picchi di oltre 8000, con il vantaggio di  dare un’esperienza di usabilità reattiva e veloce, dunque maggiori risultati in termini di soddisfazione e relativi introiti.
Il costo è rimasto molto contenuto senza scalare su più macchine con load balancer che avrebbe significato una spesa fino a 10 volte tanto, tra noleggio dell’hardware e relativa configurazione più gestione managed dei server Linux.

Le statistiche di Google Analytics parlano chiaro : quasi 5000 utenti con appena 10 di carico sulla CPU.

5000
Conclusioni

La potenza è nulla senza controllo. Ancora una volta, la dimostrazione pratica che buone capacità sistemistiche possano dare risultati eccellenti con costi veramente ridotti. Se hai un sito Web con molto traffico e vuoi ottimizzare le risorse con una configurazione su misura in base alle tue esigenze, contattaci pure.

L’importanza del sistemista linux. Quando un sistemista può fare la differenza sulla velocità e la raggiungibilità di un sito web.

problem-solving-linuxQuello che andrò a narrare nelle prossime righe è una vicenda attuale riguardante un noto marchio marchigiano.
Dovendo mettere in luce alcuni aspetti negativi riguardanti alcune aziende, e avendo lavorato conto terzi, per tutelare la privacy non andrò a fare nomi, ma mi limiterò a descrivere l’accaduto.

Il noto marchio marchigian, ha un blog WordPress, in hosting dal vecchio fornitore (agenzia web specializzata in ecommerce), che fornisce il servizio di hosting Linux.

Il blog WordPress in Hosting è stato sviluppato non da questa agenzia, ma da un’altra agenzia Web, specializzata in ecommerce Magento, di cui sono sistemista sui loro server Cloud.

Il noto marchio marchigian avendo pagato fino a nuovo anno l’hosting presso il vecchio fornitore, decide di utilizzare fino alla scadenza i loro servizi e dunque la nuova agenzia si trova a dover hostare il blog da loro creato sullo spazio hosting del vecchio fornitore.

Già dalla scorsa settimana si lamentava una lentezza eccessiva e tempi di risposta altrettanto elevati, e pur convivendo con questo disagio apparantemente immotivato mai si sarebbero aspettati di vedere il blog letteralmente irraggiungibile, fino ad essere “tirato giù” dall’amministratore del server in quanto secondo lui comprometteva la stabilità dell’intero server.

Dopo vari test condotti in maniera “oscura” e non trasparente da parte dello staff del vecchio forniore, veniva fornita una spiegazione piuttosto “fantasiosa” lamentando un attacco DDOS proveniente da siti come msnbot e IP stranieri.

L’amministratore di sistema allega degli screenshot con il comando top (per mostrarci il carico della CPU) e netstat -na per mostrarci le connessioni di rete instaurate dal loro server, liquidando il tutto con poche e precise parole a riguardo, ipotizzando un attacco DDOS all’avviare del vhost nella configurazione di Apache.

A prima vista sembra assurdo vedere un load così elevato per un semplice e banale blog WordPress (che a detta di chi lo gestisce non riceve più di 80 mila visite mensili).

Sopratutto considerando che con una configurazione simile normalmente seguiamo un cliente (www.tuttoandroid.net) che genera qualche milione di visite al mese, con oltre 2000 utenti in media collegati contemporaneamente.

Qualcosa non va e questo è certo.

Non va ad esempio che giri Apache in un sistema che lamenta lentezza, piuttosto che NGINX.

Non va il fatto che il vhost giri senza separazione privilegi in mod_php piuttosto che in FastCGI o in PHP-FPM.

Non va che un sistemista che ignori alcuni concetti sopra esposti, e getti la spugna semplicemente tirando giù il sito web,  possa lamentare improbabili attacchi DDOS tramite msnbot, laddove magari non si è preoccupato minimamente di fare un tuning efficace al DBMS MySQL, al Webserver, e ad altre componenti di sistema.

A rincarare la dose, arriva la comunicazione del titolare del vecchio fornitore che dopo aver dato disponibilità a impostare i record DNS verso il nuovo server, invita cordialmente a aggiornare la versione di WordPress, nonchè manlevarsi da ipotetiche proprie responsabilità di problematiche sistemistiche, farm, o sistema operativo.

Decidiamo pertanto di testare sui nostri sistemi il tutto, configurandolo in virtual hosting su server Linux, separando i privilegi e girando in PHP-FPM avendo cura di aver abilitato Zend OpCache e un tuning a livello webserver NGINX e MySQL Server decisamente ad-hoc al fine di sfruttare al meglio le risorse di sistema disponibili, massimizzando le prestazioni e riducendo i costi in nuovo (ed inutile) hardware.

Va precisato oltretutto che le risorse di sistema in termini di potenza di calcolo e RAM, sono pressochè identiche a quelle scelte dal vecchio fornitore, sebbene il nuovo fornitore avesse scelto un’istanza su Aruba Cloud, piuttosto che una VPS su OVH come preferito  vecchio fornitore.

Il sistema ha reagito in maniera molto positiva, eliminando di fatto tutti i colli di bottiglia e servendo i contenuti in tempi variabili tra 1 e 3 secondi, senza alcun rallentamento e ripristinando la business continuity di un’azienda molto importante a livello mondiale che si trovava ormai da quasi due giorni tagliata fuori dalla rete Internet.

Conclusioni

Avremo sicuramente spazio e modo di dare giudizi alla condotta del vecchio fornitore, non tanto su quello che è stato fatto in fase di messa in opera del sito web, ma quanto non sia stato fatto una volta lamentati problemi seri alla stabilità del server, rimpallando responsabilità ai creatori del sito in una sorta di scaricabarile dimostrando senza ombra di dubbio l’impossibilità di fare di meglio al fine di risolvere la problematica in modo elegante.

La dimostrazione pratica di quanti “esperti” che alla prima problematica  al di fuori degli “standard” non hanno conoscenze a sufficienza per rimboccarsi le maniche e fare un’analisi del problema per poi risolverlo.

La prova tangibile di quante aziende di prestigio con fatturati di milioni di euro l’anno e centinaia di dipendenti non sappia scegliere un partner affidabile sotto il punto di vista sistemistico.

La dimostrazione reale che ancora una volta di fronte a problemi di natura sistemistica, siamo in grado di approcciare all’arte del problem solving garantendo professionalità e competenza in ambito di sistemistica avanzata su Linux.

La consapevolezza che un sistema Linux configurato ad hoc possa fare una differenza notevole in termini di prestazioni, potendo così risparmiare notevoli cifre che sarebbero altrimenti state investite inutilmente in hardware, non avendo avuto la brillante idea di rivolgersi a dei seri professionisti e specialisti nella configurazione di server linux.

 

Incapsula, la nota CDN e Firewall ci svela i suoi progetti per il futuro.

incapsula-cdn-waf-expansion-plans-mapCome leggiamo dalla loro newsletter appena giunta per email, Incapsula la una nota CDN con funzioni di WAF (Web Application Firewall) e DDOS mitigation, già recensita QUI, ha dei seri piani per il futuro prossimo.

Dopo la recente acquisizione da parte di Imperva, (azienda leader nel settore Data protection e IT Security) infatti ha annunciato con notevole entusiasmo che aumenteranno datacenter e banda a disposizione fino a raggiungere cifre davvero considerevoli.

Ecco cosa scrivono su : http://www.incapsula.com/blog/cdn-expansion-plans-map.html

Incapsula e i 30 datacenter per la fine dell’anno.

E ‘ bello essere in grado di unire una organizzazione che si muove veloce come Incapsula. Oggi voglio discutere di questo slancio, condividendo i nostri piani di espansione della rete per il 2014.

Con il primo trimestre dietro di noi, e con tre nuovi datacenter già attivi, siamo entusiasti di annunciare il nostro impegno a raddoppiare le dimensioni della rete di Incapsula – espansione da 16 a 30 punti di presenza (POP) entro la fine dell’anno.

Con questi nuovi data center ci aspettiamo la capacità di rete complessiva di Incapsula di oltre 1,5 Tbp/s. Inoltre, ciascun POP di Incapsula sarà configurato per memorizzare nella cache ben 30 volte più della sua capacità attuale con l’aggiunta di una nuovi switch con una maggiore densità di porte.

Località dei nuovi Datacenter

Le posizioni dei nostri data center in arrivo sono stati accuratamente scelti per la connettività di rete ottimizzata e per la loro capacità di riflettere le reali esigenze dei nostri clienti, dunque aumentare la presenza della rete in regioni ad alta richiesta, oltre a fornire una copertura in nuove posizioni geografiche.

Ecco l’elenco di tutti i POP candidati nel loro ordine alfabetico:

Atlanta, USA
Auckland, Nuova Zelanda
Lima, Perù
Hong Kong, Cina
Madrid, Spagna
Milano, Italia
Città del Messico, Messico
Mumbai, India
Sao Paulo, Brasile
Seoul, Corea del Sud
Toronto, Canada
Vienna, Austria
Varsavia, Polonia

Anche mentre parliamo, alcuni di questi luoghi sono già in fase di implementazione iniziale, e pochi sono a pochi passi di distanza dall’attivazione ufficiale.  E’ anche possibile che una posizione di alcuni dei luoghi si sposterà, a seconda della disponibilità di risorse di rete locale.

Questo è come la nostra rete sarà simile entro la fine dell’anno:

global-cdn-expansion-map

2013 ottima annata ma solo un “riscaldamento”

Nel 2013 il numero di siti protetti da Incapsula è cresciuto di oltre il 600 per cento. Oggi, Incapsula è la piattaforma di Application Delivery scelta per decine di migliaia di organizzazioni, tra cui alcuni dei più grandi marchi del mondo di elettronica di consumo, rivenditori online, istituzioni finanziarie e società SaaS di spicco.

L’anno scorso, per accogliere la nostra crescita, siamo cresciuti la nostra capacità di rete a oltre 600Gbps, espandendolo di oltre il 500 per cento. Abbiamo anche introdotto una serie di importanti aggiornamenti di servizi, tra cui statistiche in tempo reale, nuovi controlli Cache , un sistema integrato di autenticazione a due fattori e una sfilza di altre caratteristiche.

Quest’anno continuiamo ad espandere la nostra lista di servizi, così come le nostre capacità di networking. Nel primo trimestre del 2014 abbiamo già aumentata capacità di sicurezza del Incapsula con le nostre nuove regole di firewalling per il nostro motore di filtering. Più di recente, abbiamo ampliato la nostra offerta con il nostro Layer 7 Load Balancer – primi a fornirlo  nel suo genere come soluzione di high avalaibility per i nostri clienti Enterprise.

WAF, Web Application Firewall e Proxy per mitigare attacchi DDoS

La nostra espansione della rete rapida non è solo alimentata dalla propria crescita di Incapsula, ma anche dalla crescita di attacchi DDoS volumetrici. Dall’inizio del 2013, abbiamo assistito ad un aumento senza precedenti del numero di grandi minacce DDoS al punto in cui uno ogni tre attacchi all’ora raggiunge oltre 20 Gbps e DDOS da oltre 100 Gbps non sono più rari.

Con diversi grandi DDoS  che si verificano su una base quotidiana, e con sempre più siti web in cerca di Incapsula per la protezione, sapevamo che era il momento di investire; non solo per la necessità di oggi, ma anche per gli obiettivi di domani.

DREAMSNET.IT e Incapsula. Servizi di consulenza e protezione DDOS

Come azienda abbiamo valutato, analizzato e già trattato le varie CDN che il mercato offre, rilevando in Incapsula attualmente la migliore soluzione per il Firewalling a livello di applicazioni Web, nonchè come protezione DDOS per utenti commerciali vittime di attacchi DDOS di notevole portata.

Effettiamo consulenza di DDOS Mitigation, nonchè configurazione e installazione di Incapsula come elemento vitale per la disponibilità dei servizi.

Finisce il controllo del governo Usa sui domini di Internet. Parte un piano di transizione.

Il governo degli Stati Uniti sta lasciando il controllo sul sistema degli indirizzi di internet con una mossa che suscita però anche domande sul futuro delle comunicazioni. La decisione dà il via a una transizione che riguarda l’Icann (Internet Corporation for Assigned Names and Numbers), l’ente non profit lanciato nel ormai lontano 1998 dal Dipartimento del Commercio Usa per governare il sistema che assegna gli indirizzi dei siti web e dirige il traffico su Internet. Ed è proprio questo dipartimento che spera di porre termine alla supervisione di Internet da parte di Icann al momento della scadenza del contratto prevista per il settembre del prossimo anno.

Con un annuncio ufficiale il dipartimento riconosce che ormai l’agenza è pronta per diventare un’organizzazione indipendente. L’agenzia presiede a diverse attività collegate a internet che finora sono state perseguite a nome del governo Usa anche da altre organizzazioni , prima tra tutte la Internet Assigned Numbers Authority (IANA) gestita da Icann. Si attende che all’imminente convegno di Singapore la nuova gestione di Icann sia accettata .

Ma perché il governo Usa sta cedendo quanto ancora possiede del diretto controllo su Internet? Icann presiede in qualche misura alle attività di background di Internet come il sistema dei nomi dei domini (DNS) e la modalità con cui i computer si collegano tra loro. Per raggiungere un’altra persona su Internet bisogna digitare un indirizzo sul computer . un nome o un numero. Questo indirizzo deve essere unico in modo che i computer possano trovarsi tra loro. Icann coordina questi identificatori unici in tutto il mondo. L’ente è costituito da entità con interessi internazionali e rappresentanti del governo . Ora il governo Usa ha deciso di conferire a Icann quanto era rimasto di propria competenza. Icann mantiene comunque il suo modello di direzione multistakeholder per ottenere “ sicurezza, stabilità, resilienza dei DNS di Internet”, andare incontro alle necessità di clienti e partner e mantenere aperta internet anche quando il contratto con l’agenzia National Telecommunications and Information Administration (NTIA) del dipartimento verrà a finire.

In questo momento la polemica infuria sul fatto che molti attribuiscono la decisione alle recenti rivelazioni sulle azioni di spionaggio tramite NSA, mentre ufficialmente NTIA dichiara che si tratta della parte conclusiva di un piano a lungo termine di privatizzazione del sistema DNS partito nel 1997.

Aruba Cloud. Vantaggi e svantaggi del cloud a confronto di server dedicati. Benchmark e non solo.

Scrivo questo post, in quanto in questi giorni sto seguendo un’importante azienda che sviluppa soluzioni ecommerce su Magento, nell’ottimizzare l’hosting per velocizzare sensibilmente la navigazione e l’user experience nei loro siti web.

La ricetta per far ciò è stata quella ben più volte menzionata e documentata in questo blog :

  • PHP 5.5
  • Zend OpCache (dato che abbiamo montato PHP 5.5) al posto del “solito” APC
  • Redis, che abbraccia la filosofia NOSQL come gestore cache e sessioni di Magento
  • Memcache
  • Percona Server – un fork molto stabile e performante di MySQL
  • Nginx, un webserver con gli steroidi che rimpiazzi egregiamente il lento (seppur ottimo) Apache.

La “ricetta” è quella ormai evangelizzata da tutti gli esperti sistemisti che sappiano il fatto loro e che abbiano la necessità di gestire picchi di utenze importanti e carichi elevati.

Ricetta che mi ha dato grossissime soddisfazioni anche su portali famosi come “Il fatto Quotidiano” e “tuttoandroid.net”

La scelta dell’hosting è stata invece “obbligata” su un player importantissimo a livello italiano, che si può definire tranquillamente scelta del mercato : Aruba.

Più precisamente data la necessità di avere una High Availability senza single point of failure, è stato scelto il Cloud di Aruba.

Se è vero che dal punto di vista sistemistico, feature come l’allocazione dinamica delle risorse e la scalabilità sono il forte di ogni Cloud che si rispetti, è anche vero che approfondendo meglio la soluzione proposta da Aruba ci si accorge che non sono tutte rose e fiori.

Ecco un elenco di gravi difetti che ho riscontrato a livello prestazionale sottoponendo la nostra istanza allocata a dei benchmark e comparati ad altre realtà che conosco bene, come un server dedicato con doppio disco RAID su Hetzner (noto hosting provider tedesco).

CPU

E’ evidente come già descritto nelle loro linee guida che “Ogni CPU Virtuale acquistata prevede una potenza minima riservata e garantita di almeno 0,5 core fisici di una CPU Intel Xeon serie 5600.
Dunque acquistare 4 CPU equivale nella peggiore delle ipotesi avere a disposizione una potenza di calcolo pari a 2 core di un Intel Xeon 5600, senza nemmeno il supporto del multithreading.
Caratteristiche senz’altro discutibili considerando anche il posizionamento di questa CPU nella classifica di CPU Benchmark.

Dal punto di vista di un sistemista bisogna per ovvi motivi ragionare nell’ottica della situazione peggiore, sopratutto quando si intende progettare un servizio di hosting dimensionato alle reali esigenze dell’utente finale.

Per avere insomma 8 core reali  su Aruba Cloud dovrei comprare ben 16 vCore. Su un server dedicato invece avrei potuto beneficiare di 4 core reali visti come 8 thread.

Scegliendo l’hypervisor VMWare (il più costoso ma anche il migliore) il costo per 1 singola CPU virtuale è di € 0,025/Ora che significa esattamente 18 euro / mese.
Avendo la necessità di garantirci almeno 4 core reali (ricordando che la potenza minima riservata e garantita è della metà) dovremmo moltiplicare per 8 questo valore : 144 € / mese !

RAM

La RAM è del tutto fisica e dedicata. Nulla da criticare se non fosse il costo sicuramente non trascurabile.
Per ogni GB infatti il costo è di € 0,005 / ora, che significano ben 3,60 euro / mese.
Considerato che un server in produzione ai giorni d’oggi non ha meno di 8 GB di RAM, parliamo di ben 28,8 € / Mese.

DISCO

Questa è la nota più dolente di tutti. Il motivo per cui non consiglierei mai a nessuno di utilizzare questa piattaforma Cloud per progetti commerciali di qualsiasi tipo.
In primis perchè il costo è proibitivo. Secondariamente perchè le prestazioni sono davvero troppo basse per il prezzo pagato.

Ipotizziamo un taglio disco di 100 GB (valore reale del sistema per cui sto prestando consulenza), costando € 0,003 / Ora ogni 10 GB, significa ben 21,6 € / Mese

Costi a parte, considerando che chi fa serio business difficilmente si fa problemi sui costi se il servizio ha un alto valore aggiunto, in questo caso va evidenziato un dettaglio fondamentale : le prestazioni di I/O talmente scarse da poter diventare il collo di bottiglia per l’intera architettura.

Pur notando empiricamente dei transfer rate non ottimali in routine di copia file, abbiamo voluto testare scientificamente le prestazioni con un benchmark dei dischi e comparandolo coi risultati di un server dedicato con dischi da 6 Gb/s 7200 rpm in RAID1 – Software.

Aruba Cloud :

  • Timing cached reads: 8834 MB in 2.00 seconds = 4419.74 MB/sec
  • Timing buffered disk reads: 28 MB in 3.80 seconds = 7.37 MB/sec

Hetzner – Server Dedicato con dischi RAID

  • Timing cached reads: 24252 MB in 2.00 seconds = 12145.40 MB/sec
  • Timing buffered disk reads: 344 MB in 3.00 seconds = 114.65 MB/sec

Emerge eloquentemente e senza ombra di dubbio che le performance disco della Cloud di Aruba sono dalle 3 alle 20 volte inferiori a quelle del server dedicato preso come riferimento per il confronto.

Valori indubbiamente bassi per servire grosse quantità di file, ma sopratutto per essere alla base dello storage di grosse basi di dati su MySQL o PostgreSQL, laddove la tendenza del mercato oggi è quella di usare dispositivi di archiviazione a stato solido come drive SSD o periferiche dedicate come Fusion IO.

Sento il dovere di dover chiarire un concetto, nel caso venisse fraintesa l’analisi dei valori : questi dati riguardano esclusivamente il Cloud Aruba e non l’architettura Cloud in generale.
Va detto infatti che altri competitor come Amazon AWS, Azure, o Linode danno valori decisamente ottimi.

Ad esempio un hdparm -tT su una Linode 2048 (virtualizzata XEN): Timing buffered disk reads: 254 MB in 3.01 seconds = 84.48 MB/sec

Cosa vogliamo dimostrare con questa analisi ? Tutto e niente.

Dipende da quello che si deve fare e sopratutto chiedersi (e rispondersi) se veramente il Cloud Aruba è la soluzione adatta al nostro progetto e alle nostre esigenze.

Valutare i “vecchi” sistemi dedicati e compararli sopratutto nel caso di prestazioni spinte.

A livello di costi non ci sono ovviamente paragoni, pur essendo per loro natura prodotti simili, ma non equivalenti e quindi difficilmente comparabili.

Per puro sfizio ecco il preventivo di una configurazione Aruba Cloud per garantire prestazioni equivalenti ad un server di fascia medio alta Hetzner

hetzner-server-dedicato

aruba-cloud-preventivo

Emergono due ulteriori conclusioni importanti :

Le risorse allocabili sono limitate, e 8 CPU e 32 GB di RAM sono valori BASSI in un contesto reale, tanto che non riesce ad eguagliare minimamente la comparazione con il server dedicato preso come esempio.
I costi sono decisamente alti : al lordo dell’iva sono 448 € contro i 99 € (iva compresa) dell’offerta tedesca.

Insomma, ne avremmo abbastanza per mettere online almeno 4 server dislocati geograficamente e garantirci un H/A tramite ridondanza geografica.

Qualora abbiate esigenza di progettare o ottimizzare i vostri servizi online contattateci pure, sapremmo sicuramente consigliarvi la soluzione da adottare e il partner più indicato per il vostro business.