Menu Close

Expediente de la Comisión Europea a Meta: ¿es lícita la acusación de fomentar la adicción a las redes?

El pasado 16 de mayo, la Comisión Europea inició un procedimiento formal contra Meta, la empresa a la que pertenecen las redes sociales Facebook, Instagram, WhatsApp y Threads. No solo se investigan posibles prácticas desleales en el uso de datos y publicidad en línea, sino que la Comisión acusa directamente a la compañía que dirige Mark Zuckerberg de fomentar la adicción entre los jóvenes.

Pero ¿existe realmente una acción deliberada para promover la dependencia a las redes? ¿Podemos hablar de “adicción” en este tipo de conductas?

Adicción sin sustancia

El concepto de adicción comportamental (o sin sustancia) se refiere a un patrón de conducta intensivo y desproporcionado que se convierte en una prioridad sobre otras actividades importantes, interfiriendo significativamente con la vida diaria y el bienestar del individuo.

Los síntomas pueden incluir una necesidad irrefrenable de utilizar las redes sociales y la persistencia en ese comportamiento a pesar de padecer consecuencias negativas. Diversos estudios han vinculado el uso excesivo de las redes con problemas de salud mental, incluyendo ansiedad, depresión, trastornos del sueño y baja autoestima.

En esta línea, el término de “efectos de madriguera de conejo”, utilizado en el informe de la Comisión Europea, describe cómo los algoritmos pueden llevar a los usuarios, especialmente a los jóvenes, a consumir contenido de manera compulsiva. Lo harían profundizando cada vez más en temas específicos que capturan su atención.

Por tanto, aunque aún no hay consenso absoluto sobre si el comportamiento inducido por las redes sociales de Meta es calificable de verdadera adicción, sí hay suficientes evidencias para sugerir que puede arrastrar a un uso problemático.

Un cóctel irresistible

Estos son principales ingredientes que fomentarían dicho uso problemático:

  • Diseño atractivo y algoritmos personalizados. Las redes sociales de Meta, como Facebook e Instagram, están diseñadas para captar y mantener la atención. Sus algoritmos sofisticados personalizan el contenido según los intereses y comportamientos previos de los usuarios. Este diseño puede crear un ciclo de retroalimentación que fomenta el uso continuado y excesivo.

  • Reclamos constantes. Las notificaciones y las actualizaciones en tiempo real interrumpen las actividades diarias, atrayendo la atención de los usuarios de vuelta a la plataforma. Esta interrupción frecuente puede contribuir a una sensación de urgencia y crear la necesidad de estar constantemente conectados.

  • Elementos de gamificación: Los likes, los comentarios y las reacciones están pensados para proporcionar recompensas inmediatas. Estos estímulos activan el circuito del placer del cerebro, similar a lo que sucede en otras formas de adicción, como los juegos de azar (ludopatía).

  • El espejismo del mundo ideal y los filtros. Las plataformas también fomentan comparaciones sociales, lo que puede llevar a sentimientos de insuficiencia y ansiedad. Ver constantemente las vidas aparentemente perfectas de otros usuarios puede generar una presión adicional para permanecer activo en la plataforma, buscando aprobación y validación.

Con ayuda de la ley

La acción promovida el 16 de mayo por la Comisión Europea subraya la importancia de tener reglas claras que garanticen un entorno digital justo y seguro. En vigor desde el 17 de febrero de 2024, La Ley de Servicios Digitales (DSA) de la Unión Europea puede ayudarnos a mantener un equilibrio saludable.

Porque como dijo Sarah Connor en la película Terminator:

“El futuro no está escrito. No hay destino más que el que nosotros hacemos”

Entre los principales objetivos de la DSA se encuentran:

  • Protección de los usuarios. Especialmente de los menores. Las compañías deben moderar y eliminar contenido dañino para intentar reducir el estrés y la ansiedad de ver contenido negativo. Las medidas también aseguran que la privacidad de los usuarios esté protegida y que sus datos no se usen de manera incorrecta.

  • Transparencia en los algoritmos. Estos programas deciden qué vemos en las redes. La DSA quiere que las plataformas expliquen cómo seleccionan y muestran el contenido, lo que ayudará a los usuarios a entender mejor la información y tomar decisiones más informadas.

  • Responsabilidad de las plataformas digitales. La normativa establece que las plataformas deben ser responsables del contenido que alojan, así como de gestionar la desinformación y los discursos de odio para crear un espacio más seguro y positivo. De esa manera se reduce la atracción hacia comportamientos problemáticos.

La cara amable de la tecnología

Al margen de la legislación, y a pesar de cierta demonización de las nuevas tecnologías, la inteligencia artificial (IA) también ofrece diversas herramientas innovadoras que pueden ayudar a gestionar y reducir el uso excesivo de las redes sociales:

  • Detección temprana de comportamientos de abuso. Al igual que ocurre en algunas películas de ciencia ficción –recordemos Minority Report–, los algoritmos de IA son capaces de predecir comportamientos humanos. Pueden identificar patrones de uso que pongan en guardia sobre la utilización problemática y posibles síntomas de mala salud mental. Estos algoritmos monitorizan la frecuencia de acceso, la duración de las sesiones y la interacción con el contenido. Si detectan un uso excesivo, puede enviar alertas, lo que permitiría una intervención temprana.

  • Aplicaciones de bienestar digital. Gestionan el tiempo de pantalla de manera efectiva al rastrear el tiempo total que se pasa en cada aplicación de redes sociales. También permiten a los usuarios fijar límites diarios o semanales para el uso de redes sociales. Finalmente, pueden ofrecer recomendaciones personalizadas de actividades offline basadas en los intereses del usuario, como practicar deporte, leer un libro o realizar actividades creativas.

  • Filtrado y moderación de contenido. Las herramientas de IA pueden filtrar publicaciones y comentarios dañinos o inapropiados. Esto crea un entorno más seguro y reduce el impacto asociado con la exposición a la pornografía o la violencia, por ejemplo.

  • Promoción de contenido positivo. Las plataformas pueden utilizar IA para fomentar contenido innovador y educativo ajustado a los intereses y capacidad del usuario. Esto incluye artículos sobre salud mental, vídeos de aprendizaje y recursos sobre el uso saludable de la tecnología.

El futuro depende de lo que hagamos hoy

La inteligencia artificial aplicada al buen uso de las redes sociales es comparable, en cierto modo, a los replicantes en Blade Runner. Es decir, son creaciones originalmente diseñadas para mejorar la vida humana, pero deben ser desarrolladas y gestionadas de manera ética y beneficiosa para la sociedad.

Mientras los replicantes buscan su lugar en un mundo que los ve con recelo, la IA puede ayudar a optimizar la jungla de información de las redes sociales. Es capaz de discernir lo verdadero de lo falso, promover interacciones genuinas y proteger la integridad de nuestras conexiones digitales.

Al final, su éxito depende de la habilidad y responsabilidad de quienes la implementan. Evitar un futuro distópico al estilo de Blade Runner o Terminator está en nuestra mano.

Want to write?

Write an article and join a growing community of more than 185,500 academics and researchers from 4,982 institutions.

Register now