Wikipedia exige a empresas de IA detener el scraping: Pide usar su API de pago

La plataforma Wikipedia le solicitó a las empresas de inteligencia artificial (IA) que dejen de hacer scraping directamente de su sitio web, y en lugar de esto, les pide utilizar su API oficial de pago Wikimedia Enterprise.

Cabe aclarar que el scraping es una técnica que utiliza software automatizado (bots) para extraer datos de sitios web. En este caso, los bots acceden a la enciclopedia en línea, identificando la información deseada para luego copiarla.

A diferencia de copiar y pegar manualmente, el scraping permite recopilar grandes volúmenes de datos de forma rápida. De forma tal que al recurrir a esta técnica, los desarrolladores de IA pueden obtener información que luego proporcionan a los usuarios de chatbots.

¿Por qué Wikipedia les pidió a las empresas de IA que dejaran de hacer scraping?

La medida anunciada este lunes forma parte de un plan que presentó Wikipedia para asegurarse de que su sitio web continúe recibiendo apoyo en la era de la inteligencia artificial. Esto se debe a que en el último año registró un descenso en su tráfico.

Al respecto, la Fundación Wikimedia, la entidad que administra la reconocida enciclopedia en línea, emitió un comunicado a través de su blog. En el texto, la organización insta a los creadores de IA a que hagan un uso “responsable” de su extenso contenido.

Para lograr esto, Wikimedia destacó que es necesario que las compañías de IA que utilicen el contenido de la enciclopedia, hagan las citas y atribuciones correspondientes. Además, la organización destacó que estas empresas deben acceder al contenido de manera formal a través de su plataforma comercial, Wikimedia Enterprise.

Es importante destacar que esta API abarca un conjunto de herramientas y servicios para que los desarrolladores accedan y utilicen toda la información de Wikipedia de forma programática.

Así pues, esta solicitud busca que el acceso a sus grandes volúmenes de contenidos sea responsable y formal. De esta manera, esperan garantizar la sostenibilidad y la protección de Wikipedia y de su comunidad global de editores voluntarios.

Para que la gente confíe en la información que se comparte en Internet, las plataformas deben dejar claro de dónde procede la información y aumentar las oportunidades de visitar y participar en esas fuentes”, se lee en la publicación. 

Si se reducen las visitas a Wikipedia, habrá menos voluntarios que puedan ampliar y enriquecer el contenido, y menos donantes individuales que puedan apoyar este trabajo”, agregó la Fundación Wikimedia. 

Disminución del tráfico humano en la página

Wikipedia detectó recientemente que bots de inteligencia artificial estaban rastreando el sitio y tratando de simular ser usuarios humanos. Luego de actualizar sus mecanismos de detección, la organización confirmó que el alto tráfico registrado en mayo y junio provenía de bots de IA.

Paralelamente, informó que las “visitas humanas a la página” disminuyeron alrededor de 8 %, en comparación con el año anterior. Ante esto, Wikimedia emitió el comunicado; sin embargo, no amenazó con sanciones a las compañías de IA por la extracción masiva de datos.

Así pues, Wikipedia está estableciendo nuevas directrices para las empresas de IA para que hagan uso responsable de la información en el sitio web, detengan el scraping y utilicen su API de pagos.

Información de Techcrunch / redacción Celuflash

No dejes de leer: ¡Mejora tu Wifi! Evita colocar el router en estos lugares de tu casa


Nuestras redes sociales, únete y sé parte de la tecnología 

Instagram

Telegram

YouTube

X (Twitter) 

TikTok

Últimas publicaciones

Otros artículos

Stay on op - Ge the daily news in your inbox