miércoles, noviembre 01, 2006

Sitemap para Google y Robots.txt

Tras sufrir algunos problemas y errores en las últimas semanas en una de mis páginas, pensé que hoy sería un buen día ( tranquilo al menos, al ser festivo) para hacer de nuevo su Sitemap, aprovechando para actualizarlo con las ampliaciones, modificaciones, etc.
sitemap-seo
Como la web en cuestión no es demasiado grande, he pensado en usar un generador de Sitemap Online para Google, XML-SITEMAPS. Os lo recomiendo, es rápido, sencillo, efectivo y gratis. Tiene una opción de pago ( la gratuita sólo ofrece sitemap de 500 páginas).

Pero lo que me gustó del tema, además del descubrimiento de este generador XML Online, fue que detecté un error en mi fichero ROBOTS.TXT ; es decir, cuando generé el primer Sitemap y lo comprobé línea a líena, este incluía páginas que deberían estar filtradas por el ROBOTS.TXT, pero por un fallo tonto, el robots.txt no estaba haciendo su trabajo. Manos a la obra, reescribo el famoso robots, lo subo al servidor, vuelvo a generar el Sitemap Online y !!! perfecto, funciona !!!

Puede parecer que usar este sistema para probar un fichero ROBOTS.TXT es una burrada, y lo es, pero mira por donde, sin buscarlo, a mi me sirvió para comprobarlo y corregirlo.

4 comentarios:

Alexandra dijo...

Gracias.. me acabas de ayudar mucho.. lo voy verificar y luego te cuento como me va..

HSCNet dijo...

Hola, me gustaría saber cómo has hecho para subir un fichero robots.txt usando Blogger.

Gracias.

Soy SEO dijo...

Hola HSCNet, yo no dije que usara el fichero robots.txt en Blogger, incluso dudo mucho que se pueda usar. Yo hablo de hosting normal, con su especio propio y FTP para gestionarlo. Siento no poder ayudarte.

Christian dijo...

ocupo un bot para proteger mi pagina podria alguien ayudarme ?