Derechos Humanos y Redes Sociales: el poder de los algoritmos

  • 6 mayo, 2026
  • Comentar 0
```html
Derechos Humanos · Tecnología · Relaciones Internacionales

Derechos Humanos en la era de las redes sociales

Las redes sociales no son solo plataformas de comunicación. Son el nuevo campo de batalla de los derechos humanos, y todavía no hemos encontrado cómo gobernarlas.

Análisis CIBEI Derechos Humanos Digitales Lectura: 10 minutos

Hay una pregunta que el derecho internacional todavía no sabe responder bien: ¿qué ocurre con tus derechos fundamentales cuando entras a una red social? La respuesta, incómoda y urgente, es que depende del algoritmo. Y el algoritmo no rinde cuentas ante nadie.

Punto de partida

Una promesa que no se cumple

En 2016, el Consejo de Derechos Humanos de la ONU estableció un principio que suena simple pero tiene consecuencias enormes: los derechos que tienes fuera de internet deben protegerse también dentro de él. Privacidad, libertad de expresión, no discriminación, participación política. Todos ellos.

El problema es que ese principio choca de frente con la realidad de cómo funcionan Meta, X, TikTok o YouTube. Estas plataformas no son espacios neutros. Son sistemas diseñados para capturar atención, maximizar interacción y monetizar datos, y lo hacen a través de algoritmos que toman miles de decisiones por segundo: qué ves, qué no ves, qué voz se amplifica y cuál desaparece.

Esto no es un problema técnico. Es un problema político. Y desde las relaciones internacionales, hay tres preguntas que no podemos eludir: ¿quién gobierna el espacio digital global?, ¿pueden las normas internacionales de derechos humanos aplicarse a empresas privadas con más alcance que muchos Estados?, ¿y qué ocurre cuando esos algoritmos se usan deliberadamente para debilitar la democracia?

El problema central

El algoritmo discrimina. Aunque nadie lo ordene.

La discriminación algorítmica es uno de los fenómenos más inquietantes de esta era digital porque no requiere intención. Ocurre cuando un sistema automatizado de decisiones produce efectos desiguales sobre personas o grupos, aunque nadie haya diseñado eso de forma explícita.

Los algoritmos no son matemáticas puras. Son elecciones políticas codificadas en líneas de programación, con sesgos, valores e intereses.

— Inspirado en los debates contemporáneos sobre privacidad, poder y tecnología.

La evidencia empírica ya es difícil de ignorar. Diversas investigaciones han documentado cómo los sistemas automatizados pueden reproducir exclusiones por género, origen, raza, idioma, ubicación o nivel socioeconómico. El algoritmo optimiza sobre patrones históricos y, al hacerlo, puede amplificar las desigualdades del pasado.

Esto aparece en la publicidad segmentada, en la moderación de contenidos, en la visibilidad de determinadas voces y en la forma en que las plataformas priorizan ciertos discursos sobre otros.

La moderación que silencia sin explicar

Hay otro fenómeno igualmente preocupante: la moderación automatizada de contenidos. Plataformas como YouTube, Instagram o TikTok toman millones de decisiones diarias sobre qué contenido eliminar, reducir en alcance o marcar como problemático. Muchas veces lo hacen mediante modelos automáticos que pueden cometer errores sistemáticos, especialmente frente a comunidades marginadas, idiomas minoritarios o debates políticamente sensibles.

El concepto que hay que conocer: poder algorítmico

Los algoritmos gestionan de forma masiva y opaca los flujos de información pública. En la práctica, pueden influir sobre el debate democrático, la reputación de las personas y la circulación de ideas sin suficiente transparencia, explicación o recurso efectivo.

Geopolítica digital

Las plataformas como actores de poder global

Desde la perspectiva de las relaciones internacionales, lo que está en juego va más allá de casos individuales de discriminación. Las grandes plataformas tecnológicas han emergido como actores cuasi estatales: controlan infraestructuras de comunicación que afectan la seguridad nacional, la integridad electoral y la cohesión social de decenas de países al mismo tiempo.

Meta, Google, X o TikTok no son únicamente empresas. Son espacios donde se organizan comunidades, se disputan narrativas políticas, se movilizan protestas, se difunden campañas electorales y se construye percepción pública. Eso es poder. Y es un poder que muchas veces opera sin contrapesos democráticos suficientes.

TikTok y la soberanía digital: un caso revelador

El debate en torno a TikTok ilustra esta tensión. Cuando Estados Unidos y la Unión Europea intentaron regular o restringir la plataforma por sus vínculos con China, no lo hicieron únicamente por razones comerciales: lo hicieron por razones de soberanía, seguridad y control del espacio informativo.

El argumento de fondo era claro: un algoritmo opaco, controlado por un actor extranjero, puede influir en lo que millones de personas ven sobre política, conflictos, valores sociales e identidades colectivas.

Cuando los regímenes autoritarios aprenden a usar el algoritmo

La situación se vuelve más grave cuando los propios gobiernos instrumentalizan las plataformas. Ya no se trata solo de censurar. También se trata de inundar el espacio digital con propaganda, bots, campañas coordinadas y narrativas diseñadas para saturar la conversación pública.

Las plataformas, diseñadas para amplificar lo que genera reacción, pueden terminar favoreciendo contenidos polarizantes, emocionales o desinformativos. La consecuencia es directa: menos deliberación democrática y mayor vulnerabilidad de los derechos humanos.

Respuestas institucionales

¿Qué está haciendo la comunidad internacional?

La respuesta honesta es: tarde, y aún de forma insuficiente. Pero algo se mueve.

Uno de los hitos recientes más importantes fue la adopción del Pacto Digital Global en el marco de Naciones Unidas. Este instrumento sitúa los derechos humanos en el centro de la gobernanza digital global y reconoce que el desarrollo tecnológico debe orientarse por principios de inclusión, protección, seguridad y dignidad humana.

El modelo europeo: más concreto, más exigente

Donde sí hay regulación con mayor capacidad de implementación es en Europa. El Reglamento de Servicios Digitales, conocido como Digital Services Act, obliga a grandes plataformas a evaluar riesgos sistémicos, fortalecer la transparencia, abrir ciertos datos a investigadores y ofrecer mecanismos de recurso para usuarios afectados por decisiones de moderación.

Lo relevante para las relaciones internacionales es su efecto extraterritorial. Al aplicar a grandes plataformas que operan en el mercado europeo, la Unión Europea está proyectando su modelo de gobernanza digital hacia el resto del mundo.

Tensiones abiertas

Los debates que nadie ha resuelto

Hay al menos tres preguntas que el sistema internacional todavía no sabe cómo responder plenamente.

La primera es estructural: los derechos humanos fueron diseñados principalmente para regular la relación entre los Estados y las personas. ¿Cómo se aplican a empresas privadas transnacionales que administran infraestructuras digitales con impacto público global?

La segunda es geopolítica: ¿quién define qué son los derechos digitales? La tensión entre modelos liberales, modelos centrados en la soberanía estatal y modelos corporativos de autorregulación sigue abierta.

La tercera es práctica: existe una distancia enorme entre la norma y la realidad. Hay más instrumentos sobre derechos digitales que nunca, pero los usuarios siguen sin saber por qué ciertos contenidos son eliminados, por qué otros se vuelven virales o cómo reclamar frente a decisiones automatizadas injustas.

Para cerrar

El código es político. Y tiene que responder ante el derecho.

Durante años se pensó que internet era un espacio naturalmente liberador, que las redes sociales empoderarían a los ciudadanos frente al poder y que la tecnología era neutral. Hoy sabemos que esa visión era incompleta.

Sabemos que los algoritmos pueden discriminar. Sabemos que los regímenes autoritarios pueden usarlos para debilitar disidencias. Sabemos que las grandes plataformas ejercen un poder inmenso sobre el discurso público global. Y sabemos que el sistema internacional de derechos humanos llega con retraso a este escenario.

Lo que no puede perderse en el debate técnico y jurídico es lo fundamental: en el otro lado de cada algoritmo hay personas. Personas que merecen que sus derechos sean respetados también cuando se conectan. Personas cuya voz puede ser silenciada por una línea de código que no rinde cuentas. Ese es el centro del problema, y ese es el centro del que no debemos apartarnos.

Profundiza en este tema con el Diplomado Internacional en Derechos Humanos en la Era Digital

Un programa de CIBEI diseñado para profesionales, estudiantes, académicos y activistas que quieren comprender el nuevo escenario donde la tecnología, la inteligencia artificial, la gobernanza digital y los derechos humanos se encuentran.

Modalidad internacional en línea Microcertificación en ODS y Agenda 2030 Enfoque en IA y derechos humanos Cofinanciación de hasta el 50 %
Solicitar información
```

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *