Síguenos en redes sociales:

La AI slop es la amenaza que puede quebrar tu confianza en internet

La inteligencia artificial generativa ha llenado la red de basura digital que dificulta encontrar información y contenidos de calidad.

La AI slop es la amenaza que puede quebrar tu confianza en internetGenerada por IA

La revolución de la inteligencia artificial(IA) generativa nos tiene a todos alterados, intentando adivinar hasta dónde puede llegar y de qué manera nos va a afectar. Casi todos nos hemos lanzado a hacer experimentos, a investigar cómo puede ayudarnos en nuestra vida y a crear contenidos para nuestro entretenimiento.

Y ello ha traído consigo un fenómeno inesperado: el aumento masivo de contenido de baja calidad, denominadoAI slop o basura digital. Según recoge el New York Times, respuestas automáticas que sugieren “añadir pegamento no tóxico” para que el queso se pegue mejor a la pizza, libros digitales baratos que imitan títulos populares o publicaciones aleatorias de Facebook que aparecen en los muros de noticias sin una fuente fiable serían algunos ejemplos.

En exceso de ruido y de contenidos sin valor puede hacer que navegar por internet se convierta en algo frustrante.

Ruido en la red

Este fenómeno despegó en mayo de 2024, cuando el modelo Gemini de Google se integró en los resultados de búsqueda y la función AI Overview generó respuestas automáticas en lugar de mostrar directamente enlaces. Según expertos de la Universitat Oberta de Catalunya(UOC), la masificación de contenido implica algunos riesgos como la saturación o el ruido por contenido vacío, la desinformación o la crisis de confianza en internet.

“El principal riesgo es que internet se llene de ruido: textos vacíos, repetitivos o engañosos que ocultan la información útil”, explica Antonio Pita Lozano, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC. Esta masificación dificulta encontrar contenido de valor y también debilita la confianza en ese contenido, porque no se sabe si detrás hay una persona informada o solo un bot soltando “frases bonitas pero vacías”, añade.

Existen soluciones técnicas para frenar la avalancha de basura digital, “pero no son mágicas”, advierte el profesor de la UOC. Las plataformas pueden usar filtros automáticos, herramientas de detección de contenido duplicado o mecanismos para verificar la autoría y la calidad. El problema es que los generadores malos evolucionan muy rápido y distinguirlos de los que generan contenido de calidad no es fácil.

Experiencia negativa

Silvia Martínez Martínez, profesora de los Estudios de Ciencias de la Información y de la Comunicación de la UOC, advierte de que la presencia de AI slop ya está afectando negativamente a la experiencia de uso de las redes sociales. La mayoría de los internautas se han topado en algún momento con este tipo de contenido. “Si no se adoptan medidas, la incidencia de este tipo de materiales aumentará, tanto por el incremento de mensajes como por el contacto prolongado con el usuario”, señala.

La primera consecuencia de esta saturación sería la sensación de pérdida de tiempo al no encontrar contenido de valor. Pero los efectos podrían ser aún más graves si se tienen en cuenta los usos maliciosos del AI slop, como la generación de incertidumbre, confusión o desinformación. “La experiencia podría no ser tan satisfactoria como el usuario desearía, y se podría generar un mayor escepticismo respecto al contenido consumido”, alerta Martínez.

Además, el usuario podría percibir que está siendo utilizado para generar interacción o aumentar el número de visualizaciones y seguidores, lo que podría hacerle participar de forma más comedida.

Pérdida de confianza

Un análisis reciente de Harvard Business Review confirma que la expansión de contenido generado por IA agrava la crisis de confianza en internet. La proliferación de AI slop no solo deteriora la calidad de la información disponible, también contribuye a una sensación de saturación y desconfianza entre los usuarios. Situación que se agrava por los recortes en moderación humana en grandes plataformas como Meta, YouTube o X, que emplean sistemas automatizados incapaces de frenar la avalancha de basura digital.

Respecto a la responsabilidad de las plataformas, Silvia Martínez subraya que son estas las que, a través de sus algoritmos, condicionan la experiencia de los usuarios y priorizan el contenido que más puede captar su atención. “Si al conectarnos solo encontramos contenido basura o que no aporta valor, eso repercutirá directamente en los objetivos de las plataformas”, explica. Por este motivo, resulta lógico que algunas empiecen a anunciar medidas para combatir el AI slop, como sistemas automáticos de detección o marcaje para intentar recuperar la confianza de los usuarios. Sin embargo, Silvia Martínez también advierte de que estas soluciones no siempre son efectivas.