seo on site
  • Home
  • /
  • Blog
  • /
  • Seo
  • /
  • SEO On Site : Azioni e tecniche per l’ottimizzazione del sito

      Mirco Cilli

On Site SEO: What To Do to Optimise Your Website

Optimising every aspect concerning On-site SEO is a fundamental activity that needs to be developed in order to get good positioning on web search engines.
It goes without saying that a deep detailed knowledge of the most important techniques and aspects to develop to make a website grow is paramount.

Content Index

  • On-Site SEO - Definition
  • On-Site SEO - Objective
  • On-Site SEO - Main Actions
  • Internal Structure and Links
  • Navigation Path
  • Site Map
  • The Robots.txt File
  • Canonical Tag
  • Scan Budget
  • Performance and Mobile

On-Site SEO - Definition

On-Site SEO is the activity that includes all the technical work that has a global impact on a website, allowing better positioning on web search engines.

On-Site SEO - Objective

The goal of every activity developed by On-Site SEO is to organise and provide the best site structure possible. From an operational point of view, this means to depict a quality and quantity overview on the information placed in every web page of a website.
After the building of the website structure, and after the mapping of the accesses, SEO works strategically by searching keywords to flush out the search intents of the users, bringing them to light with the highest number of keywords possible.

On-Site SEO - Main Actions

When it comes to SEO optimisation, every website layout has to be thought up and designed on the base of a hierarchical structure (tree-structure), in order to make web surfing as simple and functional as possible.
Once the Macro and Micro hierarchical structure of the pages in the website is identified, it is possible to start working on a series of technical factors linked to the On-Site SEO activity.

Internal Structure and Links

Always keeping in mind the tree-structure layout a website needs to be built on, it is paramount to work on the creation of a good structure of internal links.
This leads to the achieving of two specific goals:

  • Users: it enhances the navigation and the experience on each page, making it easier to surf the website between different categories and subcategories
  • Web search engines: it makes easier to understand the structure of a website, helping to understand the web page topics too, thanks to the adding of an anchor text, and fuelling the Link Juice (value) transfer activity from the starting page to the destination page

Navigation Path

Aside from the internal links, Breadcrumbs are fundamental to define the hierarchical structure of a website as well.
They are HTML text paths (links) allowing users to check their position on a web page according to the starting point (most of the time home pages).

Breadcrumbs aim at leading users while surfing the website, guiding them among categories and subcategories.
They increase the value of the user experience and they enhance the positioning of a website too, because a clear indication to web search bots, related to the hierarchical structure of a website, helps create context and classify different contents of each web page.

Example
Site.it/category > Breadcrumb: Homepage > Category Name
Or
Site.it/category/subcategory > Breadcrumb: Homepage > Category Name > Subcategory

When it comes to positioning both the examples are correct. The main thing that matters is that the web page hierarchy is respected.
Implementing Breadcrumbs requires adding a specific Markup to the site web pages, using the
schema.org dictionary definitions correctly. Decoding can be manual or made by using specific plugins that support the use of structured data.

Site Map

The website architecture and structure described can be used by web search engine crawlers to scan and index the contents of a web page.
Hierarchy and Content organisation are collected in a Sitemap, mostly .xml files helping the understanding of contents placed in a website.
It is appropriate to underline the fact that web search engines can find contents on a website even without creating a Sitemap, if they are connected by adequate internal links.
Despite this, a Sitemap creation is very important because it makes it easier for the bots to scan more efficiently, above all when:

  • the website is very big (e.g. an e-commerce website)
  • the website is new ad so it gets a few entry links
  • the website does not have a correct link structure between its pages

Under these circumstances Sitemap becomes paramount to let web search engines trace and find all the pages to scan and be indexed, preventing the chance of losing a few of them while crawling is underway.
A lot of tools available online can be used to create a Sitemap, like Google Sitemap Generator, or exploiting plugins like Seo YOAST in case of WordPress usage. Once it has seen light, the file robots.txt can be loaded in Google Search Console.

File Robots.txt

This file is a text file to upload in the main directory of your domain. Its purpose is to send web search engines a series of indications about what pages need to be scanned and what not.
These indications have to follow preset commands strictly, according to the will of giving instructions to all web search engines or just to some of them (e.g. Google, Bing and so on).
Every command has to refer to one or to all web search engines (User-agents). Standard commands that can be used in the robots.txt file are:

  • Not Allow
  • Allow
  • Sitemap
  • Scan Delay

Example:
User agent:*
Disallow:/privacy/

In this case every web search engine is given the order not to scan the “privacy” folder.

Example:
User agent: Googlebot
Disallow:/privacy/

In this case only Google is given the order not to scan the “privacy” folder.

Every website, in particular if big, should create and exploit the robots.txt file to upload its own Sitemap and, subsequently, to avoid one or more pages from the scanning made by web search engines.

Canonical Tag

Canonical Tag is a tag used to avoid problems of web pages eating each other. Its purpose is to indicate to web search engines the “official” version of a web page, whether there were more than one copy of it on a website.
A web page accessible from more than one URL or different pages having the same content will be considered by web search engines as duplicated versions of one page.
If a duplicated page were not recognized as a Canonical Url, Google determines automatically what canonical version has to be scanned, considering other duplicate urls as urls to scan less frequently.
The Canonical Tag Rel has to be placed in the <head> section of the HTML web page.
Example:
<rel link=”canonical” href=https://sitodipantaloni.it/jeans-slim-fit-blu/” />
Setting Canonical tags is very important because it is the way to tell a web search engine what the “main” page needing scanning is, which one needs to be considered the leading one, and therefore to receive keywords associations and positioning priority over other duplicated pages too.
It can also happen that Google may consider one or more duplicated pages as completely identical pages. In other words, producing an extremely high number of pages and causing problems in terms of Crawl budget, ranking positioning or penalties too.

Scan Budget

Above all when it comes to big websites, like for example e-commerce websites, a key factor is the so-called Crawl Budget, a value that GoogleBot favors to scan the pages of a website.
Two aspects to keep into consideration to evaluate Crawl budget are:

  • Daily scanned pages rate
  • Time elapsed for each scanning

The higher the number of pages the crawler scans on a daily basis and in the shortest time possible, the better the evaluation and the reputation of the website from a web search engine point of view.
Monitoring the Crawl Budget by the Search Console panel as time goes by, and checking if any page which should not be scanned because of their lack of importance when it comes to indexing, are paramount activities.
In the last case, the web page Disallow function helps enhance the crawler performance, not wasting time scanning it again.

Performance and Mobile

Further aspects to be taken into consideration about On-Site SEO Optimisation are undoubtedly the website navigation speed rate, website loading, security and user experience on mobile devices.
Using the Https protocol (Hypertext Transfer Protocol Secure) instead of the Http protocol is very important for a website, in order to ensure a safe communication between a browser and its server, thanks to a SSL/TLS cryptography system.
Optimising a website navigation speed is extremely important as well, both from the web search engine and from the user’s side, because a slow website will inevitably cause its abandonment, increasing its bounce rate.
There are a lot aspects possibly to work on, in order to enhance the performances of a website:

  • Image and Media Size and Weight
  • Server Output Time
  • Catching and CDN System
  • Css, JS and HTML Minification
  • Third Party Requests
  • Further Aspects

Google PageSpeed Insights is fundamental to test the speed of a website, finding out potential complications and chances which can help make the loading of pages quicker.
Information obtained from speed tests are extremely useful to get to know the Mobile scores too.
According to the increasing number of searches, On-Site SEO needs to take into consideration all the aspects regarding the optimisation of mobile devices in terms of performance and usability.
Thanks to the Google
Mobile Optimisation Test Instrument it is possible to check if a web page is optimised for mobile devices. In order to analyse the learning level of a website it is enough to use Google Search Console instead, to examine interactions with pages, find out potential problems and usability errors.

Mirco











SEO On Site: Azioni e tecniche per l’ottimizzazione del sito

L’ottimizzazione di tutti gli aspetti che riguardano la SEO On-Site è un lavoro fondamentale che deve essere svolto al fine di ottenere un buon posizionamento sui motori di ricerca.

Per questo motivo è importante conoscere nel dettaglio le tecniche e gli aspetti più importanti da implementare per lo sviluppo e la crescita del proprio sito web.

 

SEO On site – Definizione

La SEO On-Site è l’attività che comprende l’insieme di tutte le lavorazioni tecniche che impattano globalmente sul sito e che consente di ottenere un miglior posizionamento sui motori di ricerca. 

 

SEO On Site – Obiettivo

L’obiettivo di tutte le attività sviluppate da SEO-On Site è quello di organizzare e fornire la migliore struttura possibile . Questo significa operativamente delineare una panoramica qualitativa e quantitativa di quelle che sono le informazioni da distribuire all’interno delle singole pagine del sito . Crea la struttura e mappati gli accessi organici, la SEO lavora strategicamente attraverso la ricerca di parole chiave per presidiare e realizzare con il più alto numero possibile di chiavi gli intenti di ricerca degli utenti .

 

Le Principali azioni SEO On site

L’impalcatura di ogni sito web, in ottica di ottimizzazione SEO , deve essere pensata e strutturata in considerazione un’impostazione di tipo gerarchica (struttura ad albero) , per rendere il più possibile semplice e funzionale la navigazione. 

alberatura sito web

Determinata la gerarchia (Macro e Micro) delle pagine contenute all’interno del sito, è possibile iniziare a lavorare su una serie di fattori tecnici legati all’attività di SEO On-Site.

 

Struttura e Link Interni

Tenendo sempre in considerazione l’alberatura del sito, è molto importante lavorare sulla creazione di una buona struttura di link interni .

link interni seo

Definire una buona struttura di collegamenti all’interno delle pagine del sito ha una duplice finalità: 

  • Dal lato dell’utente migliora la navigazione e l’esperienza con le pagine , facilitando lo spostamento tra le varie categorie e sottocategorie;
  • Dal lato del motore di ricerca facilita la comprensione della struttura del sito , aiuta a comprendere il topic delle pagine grazie all’inserimento dell’anchor text, e alimenta il trasferimento del Link Juice (valore), dalla pagina di partenza a quella di destinazione.
 

Percorso di navigazione

Oltre ai link interni, anche i Breadcrumb sono un elemento fondamentale per aiutare a determinare la struttura di tipo gerarchica del sito.

Letteralmente “briciole di pane”, rappresentano percorsi testuali (link) in formato Html . Permettono agli utenti di controllare la propria posizione all’interno di una pagina rispetto al punto di partenza (generalmente la Home page).

L’obiettivo dei Breadcrumb è quello di non disorientarsi all’interno della navigazione del sito, ma di condurlo facilmente tra le varie categorie e sottocategorie.

Oltre ad aumentare il valore lato l’esperienza utente , questi elementi possono migliorare il posizionamento del sito poiché una chiara indicazione ai Bot dei motori di ricerca riguardo l’impostazione gerarchica del sito e aiuta a contestualizzare ea classificare i diversi contenuti delle pagine.

Esempio

Sito.it/categoria -> Breadcrumb: Homepage > Nome categoria

Oppure

Sito.it/categoria/sottocategoria -> Breadcrumb: Homepage> Nome categoria> Sottocategoria

NB: In ottica di posizionamento le due strutture non cambiano. Ciò che importa è che venga rispettata la gerarchia delle pagine del sito web

Per implementare i Breadcrumb è necessario aggiungere alle pagine del sito uno specifico Markup , usando correttamente le definizioni del vocabolario schema.org . La codifica può essere fatta manualmente, oppure utilizzando dei Plugin specifici che supportano l’uso specifico dei Dati strutturati .   

 

Mappa del sito

L’architettura e la struttura del sito delineata in precedenza, serve ai crawler dei motori di ricerca per scansionare, e dunque indicizzare, i contenuti di una determinata pagina. 

La Gerarchia Formata e l’Organizzazione dei contenuti VIENE Raccolta all’interno della Sitemap (Mappa del sito), file di un tipo solitamente di .xml, Che servono una facilitare la Comprensione dei contenuti Presenti all’interno del sito .

È bene precisare che i motori di ricerca sono in grado di trovare i contenuti di un sito anche senza la creazione di una Sitemap, purché questi siano collegati attraverso un adeguato sistema di link interni.

Nonostante questo, la generazione di una Sitemap è molto importante che aiuta e facilita i bot ad eseguire una scansione più efficiente, soprattutto nei casi in cui:

  • Il sito è molto grande (ad esempio un e-commerce); 
  • Il sito è nuovo e quindi riceve pochi link in entrata; 
  • Il sito non presenta una corretta struttura di collegamenti tra le pagine.

Per questi motivi, soprattutto in queste circostanze, la Sitemap è fondamentale affinché il motore di ricerca riesca a trovare tutte le pagine che devono essere scansionate e indicizzate, evitando la possibilità di “perderne” alcune durante la fase di crawling. 

Per generare la Sitemap di un sito basterà affidarsi a uno dei tanti tool presenti online, come Google Sitemap Generator , o sfruttando dei Plugin come Seo YOAST, qualora si utilizzasse WordPress. Una volta creata, si potrà procedere con l’inserimento nel file robots.txt e con il caricamento nella Search Console di Google. 

 

File Robots.txt

Il File Robots.txt è un file di testo da caricare nella directory principale del proprio dominio e serve per comunicare ai motori di ricerca una serie di direttive su quali pagine scansionare e quali non scansionare.

Le direttive da fornire ai motori di ricerca devono seguire dei comandi prestabiliti, a seconda che si voglia impartire azioni per tutti i motori di ricerca o solo per alcuni specifici (es: Google, Bing, ecc)

Ogni comando deve prima necessariamente richiamare uno o tutti i motori di ricerca (User-agent). I comandi “standard” da poter utilizzare all’interno del Robots.txt sono:

  • Non consentire
  • permettere
  • Mappa del sito
  • Ritardo della scansione

Esempio:

Agente utente: *

Disallow: / privacy /

In questo caso, viene comandato a tutti i motori di ricerca non eseguire la scansione della cartella “privacy”.

Esempio:

Agente utente: Googlebot

Disallow: / privacy /

In questo caso, viene comandato soltanto al motore di ricerca Google di non eseguire la scansione della cartella “privacy”.

Ogni sito web, in modo particolare se di grande dimensione, dovrebbe creare e sfruttare il File Robots.txt per caricare la propria Sitemap e in seguito per eventualmente escludere una o più pagine dalla scansione dei motori di ricerca. 

 

Canonico

Il Canonical è un tag utilizzato per evitare problemi di cannibalizzazione tra le pagine di un sito. Il suo scopo infatti è quello di segnalare ai motori di ricerca la versione “ufficiale” di una pagina , qualora ve ne siano più copie differenti sul sito.

Una pagina accessibile da più url o pagine diverse con contenuti simili, verranno viste dai motori di ricerca come versioni duplicate della stessa pagina. Qualora una pagina duplicata non venisse specificata come Url Canonico , Google determina autonomamente la versione canonica da scansionare e considera gli altri Url duplicati da scansionare con meno frequenza. 

seo canonico

Il Tag rel Canonical va inserito nella sezione <head> della pagina HTML

Esempio:

<link rel=”canonical” href=”https://sitodipantaloni.it/jeans-slim-fit-blu/” />

Impostare i tag Canonical è molto importante poiché in questo modo siamo noi un comunicare al motore di ricerca qual è la pagina “principale” da sottoporre a scansione, che dovrà ricevere autorevolezza, associazioni di parole chiave e priorità di posizionamento dalle altre pagine duplicate.

Inoltre può anche capitare che Google consideri una o più duplicate di uguale peso, causando, in altre parole, un eccessivo numero di pagine duplicate che porterebbero a problemi in termini di Crawl budget, perdite di Ranking o addirittura penalizzazioni.  

 

Budget di scansione

Un fattore da tenere in considerazione, soprattutto per i siti di grande dimensione, come ad esempio gli e-commerce è il Crawl Budget , il valore che GoogleBot mette a disposizione per scansionare le pagine di ciascun sito.

I due aspetti da tenere in considerazione per la valutazione del Crawl budget sono:

  • Numero di pagine scansionate giornalmente
  • Tempo trascorso per la scansione

Più alto è il numero di pagine che il crawler scansiona quotidianamente e con minor tempo possibile, migliore sarà la valutazione e la reputazione del sito agli occhi del motore di ricerca.

È molto importante monitorare nel tempo il Crawl Budget, (da Search Console), e verificare la presenza di eventuali pagine che non dovrebbero essere scansionate, poiché ritenute non importanti ai fini dell’indicizzazione. In questo caso, il Disallow della pagina aiuterà a migliorare le prestazioni del crawler, considerato che non dovrà più “perdere tempo” a scansionarla.

 

Performance e Mobile

Ulteriori aspetti da considerare per l’ottimizzazione SEO On-site riguardano la velocità del sito, il caricamento delle pagine, la sicurezza e l’esperienza di usabilità da Mobile.

Un primissimo aspetto da considerare agli occhi dei motori di ricerca è quello di utilizzare per il proprio sito il protocollo Https (Hypertext Transfer Protocol Secure) rispetto al protocollo Http al fine di rendere la comunicazione tra il browser e il server sicura, grazie a un sistema di crittografia SSL / TLS.

 Ottimizzare la velocità del sito è estremamente importante sia dal lato del motore di ricerca, e sia dal lato dell’utente, poiché un sito troppo lento, porterà inevitabilmente all’abbandono dello stesso, aumentando il Frequenza di rimbalzo.  

Numerosi possono essere gli aspetti su cui è possibile lavorare, al fine di migliorare le prestazioni del proprio sito:

  • Peso delle immagini e dei media
  • Tempi di risposta del Server 
  • Sistema di Caching e CDN
  • Minificazione Css, JS e HTML
  • Richieste di Terze Parti
  • Ecc.

Lo strumento PageSpeed Insights di Google è fondamentale per testare la velocità di un sito, scoprire problematiche e per cogliere le opportunità, che possono aiutare a velocizzare il caricamento delle pagine. 

Le informazioni riportate dall’analisi sulla velocità sono estremamente utili anche per conoscere quelli che sono i punteggi lato Mobile .

Considerato il progressivo aumento delle ricerche, la SEO On-Site deve tenere conto di tutti quegli aspetti che riguardano l’ottimizzazione delle performance e dell’usabilità dai dispositivi mobile.

Con lo strumento Test ottimizzazione di Google Mobile , è possibile verificare se la pagina di un sito web è ottimizzata per i dispositivi mobili. Per analizzare più nel dettaglio il livello di apprendimento invece di ottimizzazione del proprio sito è sufficiente utilizzare Google Search Console per analizzare l’esperienza con le pagine, scoprire le problematiche essenziali e gli eventuali errori di usabilità.

 

Mirco

      Mirco Cilli

 On Site SEO: What To Do to Optimise Your Website

Optimising every aspect concerning On-site SEO is a fundamental activity that needs to be developed in order to get good positioning on web search engines.
It goes without saying that a deep detailed knowledge of the most important techniques and aspects to develop to make a website grow is paramount.

Content Index

  • On-Site SEO - Definition
  • On-Site SEO - Objective
  • On-Site SEO - Main Actions
  • Internal Structure and Links
  • Navigation Path
  • Site Map
  • The Robots.txt File
  • Canonical Tag
  • Scan Budget
  • Performance and Mobile

On-Site SEO - Definition

On-Site SEO is the activity that includes all the technical work that has a global impact on a website, allowing better positioning on web search engines.

On-Site SEO - Objective

The goal of every activity developed by On-Site SEO is to organise and provide the best site structure possible. From an operational point of view, this means to depict a quality and quantity overview on the information placed in every web page of a website.
After the building of the website structure, and after the mapping of the accesses, SEO works strategically by searching keywords to flush out the search intents of the users, bringing them to light with the highest number of keywords possible.

On-Site SEO - Main Actions

When it comes to SEO optimisation, every website layout has to be thought up and designed on the base of a hierarchical structure (tree-structure), in order to make web surfing as simple and functional as possible.
Once the Macro and Micro hierarchical structure of the pages in the website is identified, it is possible to start working on a series of technical factors linked to the On-Site SEO activity.

Internal Structure and Links

Always keeping in mind the tree-structure layout a website needs to be built on, it is paramount to work on the creation of a good structure of internal links.
This leads to the achieving of two specific goals:

  • Users: it enhances the navigation and the experience on each page, making it easier to surf the website between different categories and subcategories
  • Web search engines: it makes easier to understand the structure of a website, helping to understand the web page topics too, thanks to the adding of an anchor text, and fuelling the Link Juice (value) transfer activity from the starting page to the destination page

Navigation Path

Aside from the internal links, Breadcrumbs are fundamental to define the hierarchical structure of a website as well.
They are HTML text paths (links) allowing users to check their position on a web page according to the starting point (most of the time home pages).

Breadcrumbs aim at leading users while surfing the website, guiding them among categories and subcategories.
They increase the value of the user experience and they enhance the positioning of a website too, because a clear indication to web search bots, related to the hierarchical structure of a website, helps create context and classify different contents of each web page.

Example
Site.it/category > Breadcrumb: Homepage > Category Name
Or
Site.it/category/subcategory > Breadcrumb: Homepage > Category Name > Subcategory

When it comes to positioning both the examples are correct. The main thing that matters is that the web page hierarchy is respected.
Implementing Breadcrumbs requires adding a specific Markup to the site web pages, using the 
schema.org dictionary definitions correctly. Decoding can be manual or made by using specific plugins that support the use of structured data.

Site Map

The website architecture and structure described can be used by web search engine crawlers to scan and index the contents of a web page.
Hierarchy and Content organisation are collected in a Sitemap, mostly .xml files helping the understanding of contents placed in a website.
It is appropriate to underline the fact that web search engines can find contents on a website even without creating a Sitemap, if they are connected by adequate internal links.
Despite this, a Sitemap creation is very important because it makes it easier for the bots to scan more efficiently, above all when:

  • the website is very big (e.g. an e-commerce website)
  • the website is new ad so it gets a few entry links
  • the website does not have a correct link structure between its pages

Under these circumstances Sitemap becomes paramount to let web search engines trace and find all the pages to scan and be indexed, preventing the chance of losing a few of them while crawling is underway.
A lot of tools available online can be used to create a Sitemap, like Google Sitemap Generator, or exploiting plugins like Seo YOAST in case of WordPress usage. Once it has seen light, the file robots.txt can be loaded in Google Search Console.

File Robots.txt

This file is a text file to upload in the main directory of your domain. Its purpose is to send web search engines a series of indications about what pages need to be scanned and what not.
These indications have to follow preset commands strictly, according to the will of giving instructions to all web search engines or just to some of them (e.g. Google, Bing and so on).
Every command has to refer to one or to all web search engines (User-agents). Standard commands that can be used in the robots.txt file are:

  • Not Allow
  • Allow
  • Sitemap
  • Scan Delay

Example:
User agent:*
Disallow:/privacy/

In this case every web search engine is given the order not to scan the “privacy” folder.

Example:
User agent: Googlebot
Disallow:/privacy/

In this case only Google is given the order not to scan the “privacy” folder.

Every website, in particular if big, should create and exploit the robots.txt file to upload its own Sitemap and, subsequently, to avoid one or more pages from the scanning made by web search engines.

Canonical Tag

Canonical Tag is a tag used to avoid problems of web pages eating each other. Its purpose is to indicate to web search engines the “official” version of a web page, whether there were more than one copy of it on a website.
A web page accessible from more than one URL or different pages having the same content will be considered by web search engines as duplicated versions of one page.
If a duplicated page were not recognized as a Canonical Url, Google determines automatically what canonical version has to be scanned, considering other duplicate urls as urls to scan less frequently.
The Canonical Tag Rel has to be placed in the <head> section of the HTML web page.
Example:
<rel link=”canonical” href=https://sitodipantaloni.it/jeans-slim-fit-blu/” />
Setting Canonical tags is very important because it is the way to tell a web search engine what the “main” page needing scanning is, which one needs to be considered the leading one, and therefore to receive keywords associations and positioning priority over other duplicated pages too.
It can also happen that Google may consider one or more duplicated pages as completely identical pages. In other words, producing an extremely high number of pages and causing problems in terms of Crawl budget, ranking positioning or penalties too.

Scan Budget

Above all when it comes to big websites, like for example e-commerce websites, a key factor is the so-called Crawl Budget, a value that GoogleBot favors to scan the pages of a website.
Two aspects to keep into consideration to evaluate Crawl budget are:

  • Daily scanned pages rate
  • Time elapsed for each scanning

The higher the number of pages the crawler scans on a daily basis and in the shortest time possible, the better the evaluation and the reputation of the website from a web search engine point of view.
Monitoring the Crawl Budget by the Search Console panel as time goes by, and checking if any page which should not be scanned because of their lack of importance when it comes to indexing, are paramount activities.
In the last case, the web page Disallow function helps enhance the crawler performance, not wasting time scanning it again.

Performance and Mobile

Further aspects to be taken into consideration about On-Site SEO Optimisation are undoubtedly the website navigation speed rate, website loading, security and user experience on mobile devices.
Using the Https protocol (Hypertext Transfer Protocol Secure) instead of the Http protocol is very important for a website, in order to ensure a safe communication between a browser and its server, thanks to a SSL/TLS cryptography system.
Optimising a website navigation speed is extremely important as well, both from the web search engine and from the user’s side, because a slow website will inevitably cause its abandonment, increasing its bounce rate.
There are a lot aspects possibly to work on, in order to enhance the performances of a website:

  • Image and Media Size and Weight
  • Server Output Time
  • Catching and CDN System
  • Css, JS and HTML Minification
  • Third Party Requests
  • Further Aspects

Google PageSpeed Insights is fundamental to test the speed of a website, finding out potential complications and chances which can help make the loading of pages quicker.
Information obtained from speed tests are extremely useful to get to know the Mobile scores too.
According to the increasing number of searches, On-Site SEO needs to take into consideration all the aspects regarding the optimisation of mobile devices in terms of performance and usability.
Thanks to the Google 
Mobile Optimisation Test Instrument it is possible to check if a web page is optimised for mobile devices. In order to analyse the learning level of a website it is enough to use Google Search Console instead, to examine interactions with pages, find out potential problems and usability errors.

Mirco

Articoli Collegati

Seo

Link Building: tecniche e strategie per la generazione di backlink

Leggi
seo off site

Seo

SEO Off site: Ottimizzare un sito web dall’esterno

Leggi
seo on page

Seo

SEO On page: Ottimizzare i contenuti di un sito web

Leggi