¿Cómo mejorar la velocidad de mi página web?

La velocidad de carga de tu página web un factor cada vez más a tener en cuenta

35432Cierto es que tan importante es que nuestra página web sea corporativa, tenga buenos contenidos dinámicos un buen marketing online como que todo este despliegue de medios tarde lo menos posible en mostrarse al visitante y al buscador, recordemos que los buscadores leen todo el contenido HTML que tenga nuestra web y que este tarda un tiempo en realizar esta tarea, cuanto menor sea ese tiempo de carga mejores serán los resultados tanto a nivel de comercio web como de marketing en buscadores.

Google cada vez mira más que los primeros puestos los tengan páginas bien optimizadas y con un tiempo de carga no demasiado excesivo, sin que tenga porqué poner a las más rápidas primero pero sí que estas tengan un tiempo de carga medio, a ser posible menor de 2 segundos por página, o por lo menos no exceder los 5 / 7 segundos de carga.
Esto en páginas estáticas HTML no suele ser un problema dado que no tienen carga en llamadas a bases de datos y tampoco suelen llevar una programación muy excesiva pero en páginas dinámicas con bases de datos la cosa cambia, estás sí hay que optimizarlas y tratar de usar tecnologías que reduzcan esa carga extra de funciones, por ejemplo instalar un sistema de control de caché en el servidor o usar optimizadores de imágenes para reducir la carga de las mismas.

Si queremos ver el tiempo y la carga punto por punto que tiene nuestra página web podemos visitar Pingdom tools.pingdom.com/fpt/ que entre otras funcionalidades nos va a permitir ver este dato de forma detallada.

pingdom

Os damos algunos consejos de optimización web en el caso de que la carga sea muy lenta:

Tratar de no crear páginas muy extensas en contenidos
Si tenemos mucha información en una sola página es mejor dividir esa información en páginas internas destinadas a cada uno de los apartados, de esta forma estaremos dividiendo también ese exceso de datos y de tiempo de carga por nuestro dominio.

Tratar de usar poco código en la página HTML
También será preciso que todo el código de diseño gráfico esté en archivos .css y que las llamadas a funciones PHP, JQuery o Javascript se encuentren en archivos internos según el tipo de programación que contengan, de esa forma estaremos optimizando los recursos del servidor a la hora de ejecutar la página en cuestión.

Tratar de no exceder el peso de las imágenes demasiado
Si tenemos una gran cantidad de imágenes en una sola página es importante que revisemos el peso de esas imágenes para que la suma de todas no suponga una carga excesiva para el servidor, si son demasiado grandes siempre podemos reducir su tamaño con programas de edición de fotografía y también guardarlas en formatos que reduzcan su peso en Mb. Otro factor a tener en cuenta sería el de no abusar de imágenes alojadas en otros servidores o páginas web, ya que de esa forma a demás de depender del tiempo de carga de nuestro servidor vamos a depender también del tiempo de carga de los servidores donde se encuentren esas páginas y va a reducir el tiempo de carga de la nuestra.

Contratar un hosting o un servidor con una capacidad adecuada
Por supuesto no todo el proceso de carga está en la página web o en el árbol de archivos del dominio, una parte importante también va a depender de la calidad del servicio de hosting o dominio que tengamos contratado, para este punto lo mejor es no alojar en hostings gratuitos y mirar más las opciones de pago que no suelen suponer un coste elevado. Dependiendo qué tipo de página queramos alojar en el servidor nos harán falta algunas características y otras no, lo mejor es ver justo lo que necesitamos y no excederse en las funcionalidades que nos ofrezcan sin después no las vamos a necesitar.

Tratar de optimizar al máximo las llamadas a la base de datos
En las páginas dinámicas se da mucha más comunicación entre servidor y archivos, por lo general para que cargue este tipo de páginas tienen que extraer primero los datos de una base de datos valga la redundancia, existen gestores de contenido y frameworks avanzados como pueda ser el caso de cakephp que gestionan estas llamadas de forma automática y suelen soportar mejor la carga de datos, las páginas realizadas a medida o con programación desde cero suelen llevar consultas SQL simples, son estas consultas las que podemos tratar de optimizar por ejemplo no cargando más datos de los necesarios por apartado o dejando que una parte de la gestión la realice la propia base de datos y no nosotros por programación.

Usar un sistema de gestión de caché programada
También en las páginas dinámicas podemos usar un sistema de almacenamiento de caché de archivos, eso va a significar que los visitantes de la página en lugar de ver la versión ejecutable de esta van a ver un archivo html almacenado en el servidor con los mismos contenidos que la original, esto se hace para que la carga de la página sea más lenta gracias a que leer el archivo html en lugar del original con las funciones de programación, llamadas a la base de datos etc,  de esa forma se gastan muchos menos recursos del servidor.
Los gestores de contenido por lo general suelen soportar plugins y complementos que nos van a facilitar en gran medida la instalación de este sistema, en esta web actualmente se está usando el plugin para wordpress wp.super.cache con muy buenos resultados.

Impedir el acceso a los robots que no nos interesen
Aún que es cierto que esto en realidad no es que vaya a mejorar el tiempo de carga de la web también puede ser importante para que el dominio esté bien configurado, existen ciertos robots que tal vez no nos interese que visiten nuestra página, ya sea porque pertenecen a países donde no queramos aparecer o porque realicen alguna función en el dominio que no nos interese como pueda ser copiar la totalidad del sitio web con diseño incluido, también podemos impedir que registren partes o carpetas del dominio que tengan contenidos que tampoco queramos indexar.
Esto lo vamos a poder hacer desde el archivo robot.txt instalado en el servidor, es desde ese archivo desde el que damos las ordenes a los robots, dejamos este interesante artículo de configuración de robots
Aquí un ejemplo de descativación y activación de robots:

User-agent: noxtrumbot
Crawl-delay: 50

User-agent: msnbot
Crawl-delay: 30

User-agent: Slurp
Crawl-delay: 10

# Google Image
User-agent: Googlebot-Image
Disallow:
Allow: /*

# Google AdSense
User-agent: Mediapartners-Google*
Disallow:
Allow: /*

# Internet Archiver Wayback Machine
User-agent: ia_archiver
Disallow: /# digg mirror
User-agent: duggmirror
Disallow: /

Hasta aquí nuestros consejos para tratar de optimizar la carga de nuestra página web y que esta se muestre en el menor tiempo posible al visitante use la conexión a internet que use. Esperamos que sean de interés.
Gracias por la lectura.

 

 


A %d blogueros les gusta esto:

Mi Ping en TotalPing.com Paperblog Publisuites Calcular Page Rank Spam