Más control en redes sociales: el usuario toca ajustes, no el algoritmo
Las plataformas prometen personalización, pero el poder real sigue intacto
MADRID.- (Portaltic/EP) – Las grandes plataformas digitales llevan meses enviando el mismo mensaje: ahora el usuario tiene más control sobre lo que ve. Redes sociales y servicios de streaming como Instagram, TikTok, Pinterest, Spotify o Threads han empezado a abrir pequeños paneles de ajuste para “educar” al algoritmo de recomendación. La promesa es sencilla: mostrar más de lo que interesa y menos de lo que no. La realidad, sin embargo, es bastante más compleja.
El algoritmo de recomendación es el corazón de estos servicios. Se trata de sistemas automatizados que utilizan inteligencia artificial para decidir qué vídeos, canciones, fotos o publicaciones aparecen en pantalla. Analizan cada movimiento: dónde se hace clic, cuánto tiempo se ve un vídeo, qué se escucha hasta el final, qué se pasa rápido, qué se marca con un “me gusta”. Con esos datos construyen perfiles de comportamiento y afinan las sugerencias.
- Este mecanismo está presente en casi todas las plataformas populares. Su objetivo no es solo acertar con los gustos, sino mantener al usuario dentro el mayor tiempo posible. Cuanto más tiempo pasa alguien deslizando la pantalla, mayor es el valor comercial de su atención.
Ajustes nuevos, control limitado
Hasta ahora, las opciones para influir en el algoritmo eran mínimas: borrar el historial, eliminar búsquedas o indicar que un contenido no interesa. Acciones útiles, pero frágiles. Bastaba un clic accidental o detenerse unos segundos de más en un vídeo fuera de interés para deshacer cualquier intento de “reeducar” al sistema.
En los últimos meses, varias plataformas han anunciado nuevos ajustes. Pinterest permite decidir si se quieren ver o no contenidos generados por inteligencia artificial, aunque solo dentro de categorías cerradas. TikTok amplió su barra de temas para ver más o menos contenido de determinadas áreas, e incluyó la opción de reducir la presencia de vídeos creados por IA.
Instagram prepara un sistema para elegir temas concretos —sugeridos por la plataforma o introducidos por el propio usuario— que influyan en la frecuencia de aparición de los reels. Threads ha optado por un enfoque más simbólico: un comando llamado Dear Algo para pedirle directamente al algoritmo que muestre más o menos publicaciones sobre ciertos asuntos.
Spotify se ha sumado con pruebas de listas de reproducción ajustables mediante instrucciones y con su llamado “perfil de gusto”, que permite eliminar canciones o listas que no encajan con las preferencias del usuario.
Son pasos en la buena dirección, pero no alteran el fondo del problema: el algoritmo sigue siendo una caja negra.
El diseño que engancha
La crítica principal no es solo la falta de control, sino el diseño mismo del sistema. Muchas plataformas muestran recomendaciones en un flujo infinito que invita a deslizar sin parar. De ahí surge el fenómeno conocido como doom scrolling: avanzar de forma compulsiva entre contenidos, incluso cuando ya no resultan placenteros.
Este hábito tiene efectos documentados en la salud: cansancio mental, ansiedad, sensación de pérdida de tiempo o culpa. El impacto es especialmente preocupante entre adolescentes, donde se asocia a problemas de adicción, trastornos de imagen corporal, pérdida de concentración y deterioro de habilidades sociales.
Un estudio reciente de OnePlus señala que los españoles pierden de media casi dos días al mes haciendo scroll en redes sociales. El “scroll absurdo” aparece en cualquier momento: en la cama, mientras se ve una serie o incluso en el baño.
Controles, pero sin transparencia
Para amortiguar las críticas, las plataformas han introducido límites de tiempo, avisos de uso prolongado y controles parentales, sobre todo en cuentas de menores. Son medidas que trasladan parte de la responsabilidad a las familias, pero que no cuestionan el funcionamiento interno del sistema.
A esto se suma otro problema: las recomendaciones no siempre respetan las propias normas de las plataformas. Diversos estudios han detectado la circulación de desinformación o discursos de odio impulsados por los algoritmos, que se consumen de forma intensiva sin que el usuario sea plenamente consciente.
Desde hace años, expertos y reguladores reclaman mayor transparencia: saber qué factores pesan realmente en las recomendaciones, cómo se entrenan los modelos y qué sesgos arrastran. Raciales, ideológicos o culturales, estos prejuicios no nacen del algoritmo en sí, sino de los datos con los que aprende.
Por ahora, los nuevos ajustes dan al usuario la sensación de control. Pero el poder real sigue en el mismo sitio: en un algoritmo diseñado, ante todo, para retener la atención.
Artículos relacionados
El jefe de Instagram pide etiquetar lo real frente al avance de la IA
Mosseri afirma que la autenticidad se ha vuelto un "recurso escaso" que debe protegerse. La frontera entre lo real y lo artificial en internet se…
Un estudio revela cómo el aumento de amistades intensifica la polarización social
Investigadores del Complexity Science Hub de Viena asocian el auge de vínculos sociales con mayor polarización ideológica. En la era de la hiperconectividad, cuando las…
Amnistía exige frenar el poder desmedido de las big tech
La ONG advierte que el dominio de Google, Meta, Microsoft, Amazon y Apple amenaza los derechos humanos en todo el mundo Amnistía Internacional (AI) lanzó…