Reddit ha annunciato importanti cambiamenti per migliorare l’applicazione della sua Politica dei Contenuti Pubblici. Questo aggiornamento, previsto nelle prossime settimane, riguarda principalmente il Protocollo di Esclusione dei Robot (robots.txt file), un documento che fornisce istruzioni di alto livello su come Reddit consente o meno ai terzi di eseguire il crawling del suo sito.
Il cambiamento principale consiste nell’aggiornamento del file robots.txt per continuare a limitare e/o bloccare bot e crawler sconosciuti dall’accesso a reddit.com. Questa misura non dovrebbe influire sulla maggior parte degli utenti che usano Reddit in buona fede. Attori di buona fede, come i ricercatori e organizzazioni come Internet Archive, continueranno ad avere accesso ai contenuti di Reddit per scopi non commerciali.
Mark Graham, Direttore della Wayback Machine presso Internet Archive, ha dichiarato: “Internet Archive è grato che Reddit riconosca l’importanza di garantire che i registri digitali dei nostri tempi siano archiviati e preservati per le generazioni future. Lavorando in collaborazione con Reddit, continueremo a registrare e rendere disponibili gli archivi di Reddit, insieme a centinaia di milioni di URL da altri siti che archiviamo ogni giorno.”
Reddit ha ribadito che chiunque acceda ai suoi contenuti deve rispettare le politiche in vigore, inclusi i regolamenti progettati per proteggere i redditor. Reddit è selettivo su chi può avere accesso su larga scala ai suoi contenuti e collabora solo con organizzazioni di fiducia. Chiunque desideri accedere ai dati di Reddit può consultare la guida apposita disponibile sul loro sito.