Por Diego Mota
Las redes sociales han cambiado la forma en que nos informamos y debatimos sobre política, pero lo han hecho con una consecuencia peligrosa: la polarización extrema. Los algoritmos que seleccionan qué contenidos vemos han sido diseñados para maximizar nuestra permanencia en pantalla a fin de vender publicidad, favoreciendo las emociones intensas como el enojo y la indignación. Esto crea burbujas de información, refuerza el sesgo de confirmación, aislándonos en cámaras de eco que solo reflejan nuestras propias creencias y cuando encontramos opiniones diferentes ya estamos tan polarizados que lo más factible es chocar.
Frente a este problema, surge la necesidad de crear algoritmos prodemocracia, diseñados para incentivar el debate saludable y la exposición a diferentes puntos de vista. Ejemplos como Botdog, un sistema que detecta y responde a discursos de odio en redes, o las Notas de la Comunidad de X (ex Twitter), que añaden contexto colaborativo a publicaciones virales, demuestran que es posible otra inteligencia artificial.
Para que estos algoritmos sean efectivos, es clave garantizar la transparencia algorítmica y evitar que las decisiones de las máquinas sean “cajas negras” imposibles de auditar. Además, se necesita un pacto ético entre gobiernos, plataformas digitales, academia y sociedad civil para establecer reglas claras sobre cómo los algoritmos deben priorizar la información.
¿Puede la inteligencia artificial salvar la democracia o terminará siendo su mayor amenaza? La respuesta dependerá de las decisiones que tomemos hoy. Si los algoritmos siguen optimizados para la polarización, el panorama será sombrío. Pero si promovemos modelos que fomenten la diversidad informativa y el pensamiento crítico, la inteligencia artificial podría convertirse en una poderosa aliada para el fortalecimiento de la democracia digital.
Otra IA es posible
En un mundo hiperconectado, donde las redes sociales son la plaza pública digital por excelencia, los algoritmos se han transformado en actores políticos invisibles. Su rol en la configuración de la opinión pública es incuestionable: desde las sombras deciden qué contenidos vemos, cuáles ignoramos y qué emociones nos provocarán. Sin embargo, esta tecnología, que podría fortalecer el diálogo democrático, ha sido casi exclusivamente optimizada para maximizar la permanencia de los usuarios en las diferentes plataformas, incentivando la polarización y el sensacionalismo. Frente a este panorama, emerge la idea de crear algoritmos prodemocracia, diseñados para promover el diálogo informado y constructivo, como una alternativa ética y necesaria para la salud democrática.
La mayoría de las redes sociales se financian a través de la publicidad, lo que incentiva la maximización del tiempo de pantalla. Para lograrlo, los algoritmos aprendieron rápidamente que los contenidos emocionales extremos (indignación, miedo, enojo) son los que capturan mayor atención. Esta lógica perversa prioriza la viralización de mensajes divisivos y sensacionalistas, creando burbujas ideológicas donde los usuarios reciben únicamente contenidos afines a sus creencias previas.
Estos sesgos algorítmicos no son una falla, sino una característica estructural. Los algoritmos absorben y amplifican las dinámicas de polarización que ya existen en la sociedad, en una espiral que refuerza el sesgo de confirmación[1]: los usuarios buscan y reciben información que reafirma sus ideas, mientras bloquean puntos de vista alternativos y cuando encuentran opiniones diferentes ya están tan polarizados que lo más factible es chocar.
Ante esta realidad, aparece un nuevo paradigma: los algoritmos prodemocracia, cuyo objetivo será optimizar el ecosistema digital para fortalecer el debate público informado. En lugar de premiar la viralización emocional, estos algoritmos priorizan la diversidad de perspectivas, la veracidad de la información y la promoción de conversaciones constructivas.
Un ejemplo inspirador, aunque modesto es Botdog, un sistema desarrollado en Suiza que detecta discursos de odio en redes sociales que promueve respuestas argumentativas y empáticas. Su diseño parte de un reconocimiento clave: la polarización no se combate silenciando a los usuarios, sino fomentando respuestas que desmonten las narrativas de odio con argumentos sólidos y apelaciones a la empatía. En un alto porcentaje en los que Botdog actúa, comunicando al emisor del mensaje de odio que su discurso ofende a tal o cual comunidad, los usuarios emisores se retractan y bajan el tono beligerante, si esto no sucede se deriva a personas especializadas en moderar estos temas que buscan entablar un intercambio para bajar el tono de la conversación.
Otro caso emblemático de algoritmos que podrían favorecer la democracia es el sistema de Notas de la Comunidad de X. Esta herramienta permite a usuarios voluntarios añadir contexto a publicaciones virales, especialmente aquellas potencialmente engañosas. A través de un algoritmo de consenso que pondera la diversidad ideológica de los colaboradores, X logra una especie de fact-checking colaborativo y transparente. En lugar de depender de una autoridad central, el sistema aprovecha la inteligencia colectiva para moderar el debate público, un enfoque alineado con los principios de la democracia deliberativa.
El éxito de las Notas de la Comunidad radica en que no censura directamente, sino que contextualiza, promoviendo una cultura de verificación y reflexión crítica. Si bien su implementación aún es imperfecta, representa un avance significativo hacia plataformas más responsables.
Lo paradójico es que esta herramienta surge en la red social que más polariza, haciendo convivir las dos formas de proceder, pero queda a la luz que si hay intenciones se pueden lograr algoritmos con otros fines y que funcionen bien. Esta herramienta la está incorporando también la empresa dueña de Facebook e Instagram, Meta, en sus diferentes plataformas.
El núcleo de esta transformación implica un cambio de paradigma: del algoritmo de recomendación, que optimiza el engagement, al algoritmo de diálogo, que optimiza la calidad de las interacciones. Un algoritmo de diálogo puede, por ejemplo, priorizar contenidos que hayan recibido respuestas argumentativas, premiar debates donde se reconocen puntos válidos de ambas partes o visibilizar publicaciones que fomenten el entendimiento mutuo.
Este tipo de algoritmos requieren una programación ética desde su concepción, integrando principios de pluralismo informativo, diversidad ideológica y transparencia. También necesitan un monitoreo constante para evitar sesgos involuntarios.
Más allá de la moderación de contenidos, los algoritmos prodemocracia pueden potenciar la participación ciudadana directa. Plataformas como CitizenLab utilizan inteligencia artificial para clasificar y analizar las propuestas de los ciudadanos en procesos participativos. Al automatizar el procesamiento de miles de sugerencias, la IA permite a los gobiernos captar las demandas sociales con mayor agilidad, facilitando una democracia más reactiva y deliberativa.
Este tipo de sistemas, al combinar inteligencia artificial con transparencia, pueden transformar la relación gobierno-ciudadanía. No solo permitiendo una mejor comprensión de las demandas sociales, sino generando un historial público y auditable del proceso de toma de decisiones, fortaleciendo la confianza y la rendición de cuentas.
Es importante recalcar que para que los algoritmos prodemocracia funcionen realmente al servicio de la sociedad, es imprescindible garantizar su transparencia. Esto implica que sus criterios de priorización, fuentes de datos y métricas de éxito sean conocidos y debatidos públicamente. La Directiva de Decisiones Automatizadas de Canadá es un buen ejemplo de cómo los gobiernos pueden regular este aspecto, exigiendo auditorías constantes y códigos abiertos para todos los algoritmos utilizados en la gestión pública.
Sin transparencia, incluso los algoritmos con intenciones democráticas pueden convertirse en herramientas de manipulación. La clave está en evitar las “cajas negras”[2], esas decisiones algorítmicas opacas que nadie puede explicar ni cuestionar. Un algoritmo prodemocracia debe ser tan comprensible como una ley: claro, público y sujeto al escrutinio ciudadano.
La construcción de un ecosistema digital verdaderamente democrático requiere un pacto ético entre plataformas, gobiernos, sociedad civil y academia. Este pacto debería incluir compromisos concretos, como:
- Priorizar la diversidad informativa en los algoritmos de recomendación.
- Transparencia total en los criterios algorítmicos.
- Promoción activa de contenidos verificables y argumentativos.
- Creación de espacios de diálogo mediado, donde los desacuerdos se procesen constructivamente.
- Educación digital para que los ciudadanos comprendan cómo funcionan los algoritmos y sus efectos.
Para concluir, recordar que los algoritmos no son meros instrumentos tecnológicos; son arquitecturas invisibles que estructuran nuestro espacio público digital, que sirven a los intereses de quien los creó. En sus manos reside la posibilidad de una democracia digital vibrante, donde el desacuerdo nutra el debate cívico, o una distopía polarizada, donde las cámaras de eco[3] fragmenten el cuerpo social hasta hacerlo irreconciliable.
La buena noticia es que el rumbo aún puede cambiarse. Botdog, Notas de la Comunidad y las incursiones de CitizenLab son ejemplos concretos de que otra inteligencia artificial es posible. Pero para que los algoritmos prodemocracia dejen de ser experimentos marginales y se conviertan en el estándar, es imprescindible un compromiso político y social sostenido. No es solo una cuestión técnica, es una disputa por el alma de la democracia en la era digital.
Diego Mota (Uruguay) es consultor en comunicación política. Ha trabajado en campañas electorales y comunicación de gobierno en Latinoamérica y Europa. Es máster en comunicación política por la Universidad de Blanquerna, Barcelona, realizó su trabajo final de tesis sobre inteligencia artificial en las políticas públicas. X: @DiegoMotauy
[1] El sesgo de confirmación es una tendencia psicológica a buscar información que confirme lo que ya se cree. Esto implica ignorar o desestimar información que pueda contradecir las creencias.
[2] Un algoritmo de caja negra es un sistema computacional que funciona sin que se conozca o entienda su lógica interna. Los usuarios no pueden ver cómo se toman las decisiones o predicciones.
[3] La cámara de eco o cámara de resonancia mediática, es un fenómeno en medios de comunicación y redes sociales en el que los participantes tienden a encontrar ideas que amplifican y refuerzan sus propias creencias.