Ciao a tutti.

Ho un problema specifico sulla rimozione di alcuni url. Come posso procedere?

Vorrei avere maggior chiarezza su come risolvere , perche non riesco a eliminare sti benedetti url.

Nella sezione errori di scansione c'e' la linguetta "WEB" con 3 opzioni :

"HTTP" (1)
"Non trovato" (35)
"Soggetto a restrizioni da robots.txt" (24)

Su non trovato trovo dei link spezzati. Esempio :
http://www.conveyormarket.eu/14/CONT...N_RETE_ACCIA..

come faccio a sapere quale e' il link corretto da mettere sul file robots?

poi, sono sicuro che i 24 link soggetti a restrizione siano effettivamente tolti da google?



grazie a tutti