Reddit se enfrenta a las empresas de inteligencia artificial, o al menos les pide que paguen.

A principios de esta semana, Reddit anunció que estaba cambiando su protocolo de exclusión de robots, también conocido como archivo robots.txt. Esta edición aparentemente mundana es parte de una conversación/batalla más amplia entre las empresas de inteligencia artificial que están ávidas de contenido que puedan utilizar para entrenar sus modelos de lenguaje y las empresas que realmente poseen ese contenido.

«Robots.txt» es la forma en que los sitios web le dicen a terceros cómo rastrear el sitio web; el ejemplo clásico de esto son los sitios web que permiten a Google rastrearlos para que puedan incluirse en los resultados de búsqueda.

En el caso de la IA, el intercambio de valores es mucho menos claro. Cuando ejecuta un sitio web cuyo modelo de negocio implica atraer clics y vistas, no resulta muy atractivo permitir que las empresas de inteligencia artificial obtengan su contenido y luego no le envíen ningún tráfico y, en algunos casos, copien directamente su trabajo.

Entonces, al cambiar su archivo robots.txt, además de continuar limitando las tasas y bloqueando bots y rastreadores desconocidos, Reddit está trabajando para detener las prácticas que prefieren las empresas. La perplejidad de la IA ha sido criticada,

¡Presiona reproducir para obtener más información y luego cuéntanos lo que piensas en los comentarios!

Source link