Web-Crawler von ChatGPT kann nun blockiert werden

Nicht jeder Webseitenbetreiber ist begeistert wenn KI’s wie ChatGPT die eigenen Inhalte als Lernmaterial verwendet. Darum bietet OpenAI ab sofort die Möglichkeit den Web-Crawler von ChatGPT mittels Robots-Text Datei auszuschließen. Dadurch ist es dem Bot nicht mehr möglich die eigenen Webseiteninhalte als Trainingmaterial zu verwenden.

Um den Bot zu blockieren müsst ihr eine robots.txt Datei mit dem folgenden Inhalt in das Hauptverzeichnis eurer Webseite ablegen:

User-agent: GPTBot
Disallow: / 

Der Crawler wird anschließend nicht mehr auf eure Webseite zugreifen, frühere Besuche bleiben allerdings davon unberührt. Alternativ bleibt euch auch die Möglichkeit die entsprechenden IP-Adressen des ChatGPT Web-Crawlers zu blockieren.

Stefan Kröll

Über den Autor

Gründer von Xgadget.de und IT-Experte mit über 15 Jahren Erfahrung in den Bereichen macOS, Windows und Smart Home. Als leidenschaftlicher Tech-Enthusiast zudem auch spezialisiert auf Raspberry Pi Projekte und individuelle IT-Lösungen, um komplexe Technik für Anwender verständlich und nutzbar zu machen.

Alle Artikel von Stefan Kröll →
Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

* gesponserter Link
Blogverzeichnis - Bloggerei.de