Robots.txt is een tekstbestand dat behoort tot een groep webprotocollen genaamd Robots Exclusion Protocol of REP. Dit bestand beveelt bots van zoekmachines zoals Googlebots op welke pagina's moeten worden gecrawld en geïndexeerd. Robot.txt helpt websites te voorkomen dat ze worden gebombardeerd door te veel verzoeken. Het speelt een grote rol bij het hebben van een goede SEO-score.