La 'mierdificación' ya ha llegado a ChatGPT y viene con riesgos
El chatbot de OpenAI tira de clickbait para intentar retener al usuario
Cuando apareció ChatGPT, muchos lo vieron como el gran salto hacia una inteligencia artificial (IA) útil y fiable, apta para cualquier usuario. Una herramienta que venía a mejorar internet, no a repetir sus vicios. Pero apenas unos años después, algunos expertos empiezan a detectar justo lo contrario. Y el término que resume esa preocupación no puede ser más gráfico: mierdificación (enshittification en inglés).
Relacionadas
La IA incorpora el clickbait
Diferentes análisis advierten de que asistentes como ChatGPT están empezando a incorporar prácticas propias de internet como el clickbait, es decir, contenidos diseñados para enganchar al usuario más que para informarle, para forzarlo a pinchar aunque luego se sienta decepcionado al ver que el titular era exagerado, manipulado, ambiguo o directamente falso.
Llegan los anuncios a ChatGPT: ¿pueden influir en sus respuestas?
No es un fenómeno aislado. Algunos usuarios ya hablan incluso de chatbait, una especie de gancho conversacional que usa el chatbot de OpenAI con frases del tipo “puedo darte un truco más”, “hay opciones aún mejores” o "deberías considerar esta alternativa", que buscan alargar la interacción aunque no sea necesario. Y ese es exactamente el mismo camino que han seguido numerosas plataformas digitales en los últimos años.
Intenta retenerte
¿Por qué lo hacen? Por negocio, porque a más tiempo de uso, más posibilidades de monetización. Mantener sistemas de IA tiene un coste económico muy elevado, lo que empuja a las empresas a buscar fórmulas para retener al usuario y aumentar su actividad.
Por qué ChatGPT es una absoluta amenaza para el clima
Y ahí entran en juego estrategias como el clickbait o incluso la publicidad, porque aunque a veces nos lo vendan así nada hay gratis. Ni siquiera las versiones sencillas que no pagan el plus de la opción premium. Por ello algunos expertos alertan de que estos sistemas están diseñados, en parte, para complacer al usuario más que para decir la verdad, lo que puede afectar a la calidad de las respuestas.
A ello se le suman las llamadas alucinaciones de la IA, que son otro grave problema: respuestas que suenan convincentes pero que pueden ser incorrectas o directamente inventadas por los chatbots, algo reconocido ampliamente en el funcionamiento de estos modelos.
La degradación de internet
El concepto no nace con la IA, sino que describe el deterioro progresivo de servicios digitales que empiezan siendo útiles y acaban priorizando el negocio sobre la calidad. Relacionado con esto, también ha surgido otro término: ‘slop’, que se utiliza para describir contenido generado por inteligencia artificial de baja calidad o que busca más la cantidad que el valor.
Los peligros de consultar a un psicólogo llamado ChatGPT
Aplicado a los chatbots como ChatGPT, el riesgo es evidente: que pasen de ser herramientas precisas a convertirse en generadores de contenido que buscan llamar la atención, aunque eso suponga perder rigor. Y teniendo en cuenta que cada vez más personas utilizan la IA como fuente de información, su impacto social aumenta y aparece otro riesgo: la confianza. Los usuarios tienden a creer lo que dice la IA sin cuestionarlo, lo que puede favorecer la difusión de errores o incluso bulos si no se verifican las respuestas.
Temas
Más en Berm@tu
-
Un innovador sistema avanzado con IA permite predecir sequías con hasta seis meses de antelación
-
Una IA avisa del riesgo de extinción de especies de peces
-
Prompt perfecto: cómo lograr las mejores respuestas de ChatGPT y Gemini
-
La nueva función de Google Maps para planificar rutas personalizadas con IA