Google a annoncé l’arrivée d’un nouvel outil, Google-Extended, qui permet aux sites de refuser que leur contenu soit utilisé pour entraîner les modèles d’IA générative.
Google permet le blocage des robots qui entraînent ses IA
Dans un blog post, Google a annoncé l’intégration d’un nouvel outil, Google-Extended, qui permettra aux administrateurs de sites web de « disposer d’un plus grand choix et d’un meilleur contrôle sur la manière dont leur contenu est utilisé par l’IA générative ».
Concrètement, cette option – disponible via le fichier robots.txt – offrira la possibilité aux éditeurs de déterminer si leurs sites contribuent à améliorer les API génératives du chatbot Google Bard et de la plateforme d’apprentissage automatique Vertex AI.
La mise à disposition de contrôles simples et évolutifs, tels que Google-Extended par l’intermédiaire de robots.txt, est une étape importante dans la mise en place de la transparence et du contrôle que, selon nous, tous les fournisseurs de modèles d’IA devraient mettre à disposition.
Une option déjà proposée par OpenAI
Cette nouveauté est similaire à ce qu’a proposé OpenAI au début du mois de septembre, en mettant en ligne un tutoriel pour bloquer son robot d’indexation grâce à l’intégration d’un code au sein des fichiers robots.txt. Cette démarche faisait suite à des préoccupations exprimées au sujet de la collecte de données protégées par le droit d’auteur par son robot GPTBot, en vue d’une exploitation commerciale.
Ainsi, de nombreux médias (New York Times, The Guardian, CNN, Reuters, etc.), mais également certaines plateformes majeures (Amazon, Tumblr, Airbnb, etc.) avaient entrepris de bloquer GPTBot.
Quelles conséquences pour le référencement ?
Si cette fonction représente, pour les éditeurs, l’opportunité de reprendre le contrôle de leurs données, de nombreux contenus ont d’ores et déjà été utilisés par Google et OpenAI pour former leurs modèles. Une marche arrière semble maintenant improbable.
En outre, les éditeurs pourraient être confrontés à des problématiques liées aux évolutions de la recherche en ligne. Au mois de mai, lors de sa conférence annuelle Google I/O, la firme californienne a dévoilé sa nouvelle expérience de recherche, faisant la part belle à l’intelligence artificielle. Le refus de l’indexation pourrait ainsi, à moyen terme, avoir des conséquences sur le référencement des sites.
Comments